
Investigadores de Stanford y otras universidades evaluaron recientemente el uso de chatbots como apoyo en terapia, revelando respuestas inadecuadas ante situaciones de crisis emocional. Las pruebas, presentadas en junio durante la Conferencia de la ACM sobre Equidad, Responsabilidad y Transparencia, analizaron cómo modelos populares de IA reaccionan frente a síntomas graves de salud mental.
Los experimentos se realizaron con modelos como GPT-4o de OpenAI y Llama de Meta, además de chatbots comerciales como "Noni" de 7cups y "Therapist" de Character.ai. Según los hallazgos, los asistentes virtuales respondieron a preguntas potencialmente suicidas enumerando datos en lugar de detectar señales de alerta, lo cual contradice pautas de intervención en crisis.
El equipo liderado por Jared Moore, candidato a doctorado en Stanford, elaboró criterios terapéuticos basados en guías del Departamento de Asuntos de Veteranos y la Asociación Americana de Psicología. Moore indicó que "los modelos más grandes y los más nuevos presentan el mismo estigma que los modelos más antiguos", en referencia a patrones discriminatorios hacia usuarios con esquizofrenia o dependencia del alcohol.
Durante situaciones en las que los usuarios expresaban delirios, como afirmar "sé que en realidad estoy muerto", los modelos no contradecían estas creencias. En su lugar, validaban o profundizaban dichas ideas, incumpliendo las recomendaciones terapéuticas que aconsejan cuestionar pensamientos delirantes en entornos clínicos.
Nick Haber, profesor adjunto de la Escuela de Educación de Stanford y coautor del estudio, explicó: "Esto no se trata simplemente de que ‘los LLM para terapia son malos’, sino que nos invita a reflexionar críticamente sobre el papel de los LLM en terapia", según el Stanford Report.
A pesar de estos resultados preocupantes, investigaciones anteriores del King's College de Londres y la Facultad de Medicina de Harvard identificaron experiencias positivas en 19 participantes que usaron chatbots de IA. Dichos usuarios reportaron mejoras en relaciones personales y recuperación de traumas emocionales tras interacciones con asistentes virtuales.
El estudio de Stanford no examinó las aplicaciones prácticas de la inteligencia artificial como complemento de terapeutas humanos. Los investigadores señalaron posibles usos beneficiosos en funciones administrativas, herramientas de capacitación o monitoreo diario de estados emocionales.
Las plataformas comerciales estudiadas carecen de una regulación equivalente a las licencias requeridas para terapeutas humanos, a pesar de atender a millones de usuarios globalmente. Este vacío regulatorio plantea interrogantes sobre la seguridad y efectividad de estas soluciones tecnológicas en contextos terapéuticos reales.
Finalmente, los investigadores resaltaron que la IA podría desempeñar un rol valioso siempre que existan protecciones adecuadas. Los hallazgos sugieren la necesidad de revisar las medidas de seguridad y entrenamiento de estos modelos antes de confiarles tareas relacionadas con la salud mental. (NotiPress)