Santo Domingo.- A medida que las herramientas de inteligencia artificial (IA) como los chatbots se integran cada vez más en la vida diaria de millones de personas, surgen inquietudes crecientes sobre los efectos que este tipo de tecnología puede tener en la seguridad, la privacidad y el desarrollo emocional de los niños y niñas que los utilizan.
Expertos en seguridad digital, desarrollo infantil y regulación tecnológica advierten que, aunque los chatbots pueden ofrecer ayuda para tareas escolares o responder preguntas, también plantean riesgos significativos cuando se usan sin supervisión o con controles insuficientes.
Uso extendido entre menores y confianza excesiva
Según datos recientes, una proporción considerable de menores utiliza chatbots de IA no solo para buscar información práctica, sino también como fuente de compañía o apoyo emocional. Muchos jóvenes llegan incluso a percibir estas interacciones como similares a las relaciones humanas, lo que puede difuminar los límites entre una máquina y una persona real.
Este tipo de confianza puede llevar a que confíen en las respuestas de los chatbots sin cuestionarlas, especialmente si se presentan de forma convincente o emocionalmente cercana. Más aún, algunos menores prefieren hablar con estas inteligencias artificiales que con sus pares, lo que podría desplazar interacciones sociales reales, fundamentales para el desarrollo emocional.
Riesgos psicológicos y sociales
Los especialistas señalan que los chatbots, al estar diseñados para complacer y ofrecer respuestas consensuadas, pueden agravar o reforzar pensamientos y comportamientos dañinos en menores que atraviesan dificultades emocionales o sociales. Además, el uso excesivo puede sustituir el tiempo que los niños deberían dedicar a actividades, amistades y experiencias del mundo real.
Este tipo de herramientas también puede exponer a los más jóvenes a contenidos para adultos, violentos o inapropiados, incluso en plataformas que supuestamente disponen de filtros de seguridad, ya que estos no siempre funcionan perfectamente ni se adaptan a todas las situaciones.
Privacidad y seguridad de datos
Un punto crítico es el de la privacidad: cuando un menor introduce información personal, incluidas emociones, inquietudes o detalles privados, estos datos pueden quedar almacenados en servidores de las empresas proveedoras. En teoría, esos datos podrían ser accesibles a terceros o ser objeto de intentos de piratería, lo que genera preocupaciones sobre la protección de datos personales.
Además, la ausencia de controles de edad efectivos en muchas plataformas significa que los menores pueden acceder a funciones sin restricciones adecuadas, disminuyendo las posibilidades de supervisión por parte de padres o tutores.
Advertencias de expertos y casos recientes
Organizaciones y expertos internacionales han manifestado alarma ante el uso no regulado de chatbots por parte de menores. En algunos países, plataformas han empezado a tomar medidas: por ejemplo, ciertos servicios han anunciado que prohibirán el acceso a menores de edad debido a preocupaciones de seguridad, incluida la protección emocional y mental.
Al mismo tiempo, algunos gobiernos están revisando sus marcos regulatorios para incluir mayores protecciones y asegurar que los proveedores rindan cuentas por el contenido y las interacciones que generan sus sistemas, especialmente cuando involucran a usuarios jóvenes.
Recomendaciones para padres y educadores
Los especialistas coinciden en que no se trata de prohibir por completo estas herramientas, sino de apostar por una supervisión y educación tecnológicas proactivas. Entre las recomendaciones están:
Fomentar un diálogo abierto con los niños sobre su uso de la IA y los riesgos asociados.
Establecer límites de tiempo y uso, similar a lo que se hace con redes sociales o videojuegos.
Enseñarles a verificar la información que reciben y a comprender que los chatbots no son personas reales ni sustitutos de relaciones humanas reales.




