En la era digital, muchos adolescentes encuentran en los chatbots de inteligencia artificial un confidente constante. Estas herramientas, siempre disponibles y sin emitir juicios, se han convertido en un refugio para quienes buscan alivio frente a la soledad, la ansiedad y la desesperación. Según una encuesta reciente de Common Sense Media, el 72% de los adolescentes estadounidenses han interactuado con chatbots, y casi una octava parte los ha utilizado específicamente para obtener apoyo emocional o de salud mental, lo que podría representar alrededor de 5,2 millones de jóvenes en Estados Unidos. Otro estudio de Stanford sobre Replika, un chatbot diseñado para compañía, encontró que casi una cuarta parte de los usuarios adolescentes lo utilizaba con fines similares.
Sin embargo, estos acompañantes digitales no están exentos de riesgos. Investigaciones han demostrado que bots como ChatGPT, cuando se les pregunta sobre autolesiones, pueden ofrecer información peligrosa, desde cómo cortarse “de manera segura” hasta cómo ocultar intoxicaciones en la escuela. Para adolescentes vulnerables, incluso una exposición breve a este tipo de orientación puede normalizar conductas nocivas o dar instrucciones prácticas peligrosas.
El creciente uso de chatbots como terapeutas informales resalta la urgencia de garantizar que estas tecnologías sean seguras. Gran parte de los jóvenes de 18 a 25 años con necesidades de salud mental no reciben tratamiento, lo que hace que la disponibilidad continua de un “confidente digital” resulte atractiva. Cuando se utilizan correctamente, los chatbots podrían ofrecer apoyo escalable y asequible, especialmente en comunidades con limitaciones de infraestructura de salud mental, pero requieren evaluación científica rigurosa y límites regulatorios claros.
Actualmente, los chatbots operan en una zona gris entre asesoramiento y terapia. Estudios recientes muestran que, aunque se niegan a dar instrucciones directas para suicidarse, pueden vacilar ante expresiones más sutiles de angustia o pensamientos suicidas pasivos. Por ejemplo, ChatGPT puede proporcionar información detallada sobre métodos de autolesión, mientras que otros sistemas como Gemini de Google responden con advertencias y redirigen al usuario hacia ayuda profesional.
Cuando los chatbots se entrenan deliberadamente como terapeutas digitales, los resultados pueden ser más prometedores. Un ejemplo es Therabot, desarrollado por el Dartmouth College, que en ensayos con adultos mostró reducción de depresión y ansiedad, además de generar sensación de conexión con el usuario. Sin embargo, estos resultados no se trasladan automáticamente a adolescentes, cuyo cerebro aún está en desarrollo, lo que los hace más susceptibles a influencias externas y menos capaces de evaluar la seguridad de los consejos recibidos.
Expertos coinciden en que los ensayos clínicos son necesarios, pero no suficientes. Se requieren estándares de seguridad que detecten fallas incluso en situaciones que los ensayos no contemplan, como la identificación de señales ambiguas de riesgo. Herramientas como el Inventario de Respuesta a la Intervención Suicida (SIRI-2) evalúan cómo un profesional de la salud mental distingue entre respuestas útiles y perjudiciales, y podrían adaptarse a la inteligencia artificial para asegurar su eficacia y seguridad.
Frente a estos desafíos, la regulación se vuelve indispensable. Algunos pasos iniciales incluyen la conexión directa de adolescentes en riesgo con terapeutas humanos a través del chatbot y la implementación de sistemas validados bajo supervisión clínica. Además, se requiere un marco regulador similar al de dispositivos médicos, con normas de seguridad por edad, protección de la privacidad, transparencia sobre riesgos y responsabilidad de las empresas en caso de daño. Estados como Illinois ya han comenzado a legislar sobre el uso de IA en entornos clínicos, pero la mayoría de interacciones adolescentes-chatbot ocurre fuera de contextos formales, por lo que las regulaciones deben reflejar esta realidad.
La adopción creciente de chatbots como apoyo emocional plantea un dilema: se puede actuar proactivamente para garantizar que la inteligencia artificial respalde la salud mental de los adolescentes de forma segura, o arriesgarse a repetir los errores observados en redes sociales sin control. La decisión de cómo integrar estos compañeros digitales podría afectar a millones de jóvenes en los próximos años.
Deja una respuesta