El peligro de recurrir a la IA para que nos analice psicológicamente. Los expertos advierten que la tecnología solo debe utilizarse con respaldo científico y aseguran que los chatbots nunca podrán reemplazar a los terapeutas humanos.
La última tendencia entre los adolescentes es usar ChatGPT para evaluar si sus relaciones con amigos y parejas son saludables, volcando en esta IA sus conversaciones de WhatsApp. Desde su lanzamiento en noviembre de 2022, ChatGPT impresiona por su capacidad de imitar el lenguaje humano. Muchas personas lo utilizan para tareas administrativas, redacción de correos electrónicos, planificación de viajes, análisis de compras o búsqueda de recetas, pero cada vez más se recurre a esta herramienta para responder cuestiones emocionales.
Problemas de Salud Mental y Tecnología
Los problemas de salud mental están en aumento en los países desarrollados. Según la OMS, una de cada cuatro personas sufrirá algún trastorno mental a lo largo de su vida. La tecnología ha respondido a esta necesidad con numerosas aplicaciones de terapia y bienestar emocional. En el mercado de aplicaciones de Apple, destacan aquellas para meditar, monitorear el sueño o controlar el ciclo menstrual. A estas se suman los chatbots de inteligencia emocional, como Replika, Wysa y Youper, que permiten mantener conversaciones sobre problemas emocionales.
Aunque la IA es gratuita, rápida y accesible las 24 horas del día, no es la herramienta adecuada para tratar cuestiones emocionales, advierten los expertos. «La tecnología puede ayudar a detectar un problema de salud mental, pero nunca debe sustituir a un profesional,» dice Edgar Jorba, fundador de Aimentia, un sistema que ayuda a psicólogos y psiquiatras a ser más precisos en sus diagnósticos y terapias. Jorba destaca que la mayoría de estas aplicaciones no tienen aval científico y pueden llevar a diagnósticos incorrectos.
La Falta de Psicólogos y la Epidemia de Soledad
La falta de psicólogos en la atención primaria y el alto costo de la terapia privada explican en parte el uso de la IA para el bienestar emocional. Además, la epidemia de soledad entre los jóvenes es un factor clave en el aumento del uso de estas aplicaciones. Según un estudio del Observatorio Estatal de la Soledad, uno de cada cuatro jóvenes experimenta soledad no deseada, y el 75.8% la ha sentido durante más de un año. La falta de educación sobre salud mental y el estigma asociado a estas enfermedades también contribuyen a que se busque apoyo en canales digitales.
Ana Freire, docente e investigadora en inteligencia artificial en la UPF, subraya la importancia del anonimato que ofrecen las redes sociales y aplicaciones. Freire lidera el proyecto STOP, que busca reducir los suicidios mediante el análisis de datos en redes sociales. Las campañas de STOP, dirigidas a personas con riesgo de trastornos mentales, incrementaron significativamente las solicitudes de ayuda.
Problemas de Privacidad y Seguridad
Sin embargo, el uso de aplicaciones y chatbots para apoyo emocional plantea problemas de privacidad. «El uso de datos es un problema sin resolver en sistemas como ChatGPT», señala Freire. La re-entrenación de estos sistemas con datos personales puede ser peligrosa, y es crucial encontrar un equilibrio entre privacidad e innovación.
Si bien la IA puede ofrecer herramientas útiles para la salud mental, como la psicoeducación o el seguimiento de síntomas, no reemplaza la terapia tradicional. Existen diversos riesgos asociados que hay que considerar antes de recurrir a este tipo de herramientas:
- Falta de empatía y comprensión: la IA no posee la capacidad de comprender las complejidades de la experiencia humana y las emociones de la misma manera que un terapeuta humano.
- Incapacidad para detectar y abordar problemas graves: los chatbots y aplicaciones de IA no están capacitados para detectar o diagnosticar problemas de salud mental graves, como depresión o ansiedad.
- Riesgo de dependencia y aislamiento: el uso excesivo de la IA para terapia puede generar dependencia y aislar a las personas de la interacción humana y el apoyo social.
- Preocupaciones por la privacidad y la seguridad de los datos: la confidencialidad de la información personal es crucial en la terapia.
- Falta de regulación y supervisión: actualmente, no existe una regulación clara que controle el desarrollo y uso de la IA en el ámbito de la salud mental.