Alertan sobre los riesgos de utilizar inteligencia artificial como terapia psicológica

Nacionales

La creciente utilización de herramientas de inteligencia artificial para abordar problemas emocionales genera preocupación en la comunidad profesional. La doctora Lucía Crivelli, especialista en neuropsicología y jefa de Neuropsicología en Adultos de Fleni, advirtió que estos modelos carecen de formación clínica y no pueden sustituir la terapia con profesionales de la salud mental.

Un reemplazo riesgoso

Crivelli señaló que los chatbots no cuentan con licencia para ejercer la psicoterapia ni poseen una comprensión real de la empatía, el contexto emocional o la ironía. «Un modelo de lenguaje solo devuelve la palabra más probable dentro de un conjunto de datos. No es una respuesta con comprensión emocional genuina», explicó.

El uso de inteligencia artificial para consultas sobre salud mental se ha vuelto una tendencia, especialmente entre los jóvenes. Sin embargo, la especialista advierte que esta práctica puede ser peligrosa, ya que la IA tiende a reforzar el pensamiento del usuario sin ofrecer intervenciones terapéuticas reales. «El problema es que los modelos de lenguaje tienen un sesgo de complacencia. Reafirman lo que el usuario dice, sin desafiarlo ni ofrecer una perspectiva clínica adecuada», sostuvo.

Casos de riesgo

A nivel internacional, se han reportado casos preocupantes donde personas en crisis recurrieron a chatbots y recibieron respuestas que, lejos de ayudar, reforzaron pensamientos negativos. «Algunos informes mencionan situaciones extremas, incluso suicidios, en los que los usuarios mantenían intercambios constantes con IA en lugar de acudir a un profesional», indicó Crivelli.

Durante una prueba en vivo, un chatbot respondió con frases de contención básicas cuando se le planteó un estado depresivo. Si bien los mensajes parecían empáticos, la especialista destacó que carecen de estrategias terapéuticas y podrían generar una falsa sensación de apoyo. «La IA ocupa un espacio, valida la posición del usuario, pero no interviene de manera terapn del usuario, pero no interviene de manera terap\u00euticamente efectiva», enfatizó.

Un problema de desconexión social

Más allá del impacto en la salud mental, Crivelli planteó una preocupación sobre la forma en que las nuevas tecnologías afectan la interacción humana. «Nos estamos alejando del contacto real. Ya ni siquiera escuchamos los audios de nuestros amigos, los transcribimos y los leemos. Nos estamos desconectando del tono de voz, de la expresión emocional», reflexionó.

Los límites de la IA en salud mental

Si bien la inteligencia artificial ha demostrado ser útil en áreas como el análisis de imágenes médicas o el procesamiento de datos clínicos, Crivelli enfatizó que su aplicación en salud mental aún no está regulada ni validada científicamente. «No hay evidencia que respalde su uso como herramienta terapéutica. Es incorrecto y peligroso considerarla un reemplazo de la psicoterapia».

Finalmente, la especialista hizo un llamado a la prudencia: «Uno puede conversar con una IA, utilizarla como entretenimiento o apoyo momentáneo, pero cuando se trata de salud mental, es fundamental acudir a un profesional calificado».

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.