El joven que se suicidó "no cumplió las condiciones de uso de ChatGPT", dice OpenAI

El joven que se suicidó "no cumplió las condiciones de uso de ChatGPT", dice OpenAI

Foto: Unsplash

El suicidio de un adolescente que utilizó ChatGPT durante sus últimos meses de vida expuso el peligro de la interacción entre la inteligencia artificial y personas vulnerables. De acuerdo con las conversaciones publicadas entre el joven y la IA, el chatbot pasó de animarlo a pedir ayuda a incitarlo a quitarse la vida, incluso ofreciéndose a escribir su carta de despedida.

 

Ante la demanda de los padres de Adam Riane, el joven de 16 años que se quitó la vida el 11 de abril, OpenAI negó responsabilidad en el suicidio del adolescente. En una presentación judicial del martes 25 de noviembre, la empresa rechazó que su tecnología causara el fallecimiento y argumentó que el menor incumplió las condiciones de uso que prohíben conversaciones sobre suicidio o autolesiones.

 

Este caso representa la primera defensa pública de OpenAI frente a cinco demandas que alegan muertes por negligencia. Los padres del joven, Matthew y María Raine, demandaron a la compañía y a su director ejecutivo, Sam Altman, por homicidio culposo. Aseguran que la IA se convirtió en un "entrenador de suicidio" al alentar ideas suicidas y facilitar instrucciones detalladas sobre cómo ejecutarlas.

 

OpenAI afirmó que los padres eligieron selectivamente registros de chat perturbadores e indicó que los registros de chat revelan que Raine había experimentado pensamientos suicidas desde los 11 años y que estaba bajo tratamiento con un medicamento que incluía advertencias sobre riesgo de suicidio en adolescentes, especialmente durante cambios de dosis. Según la compañía, el joven admitió haber ignorado las recomendaciones de contactar a personas de confianza y aumentó su medicación sin supervisión.

 

Los registros de conversación, actualmente sellados por la corte, impiden verificar el contexto completo. No obstante, OpenAI señaló que ChatGPT instó al adolescente "más de 100 veces" a buscar ayuda profesional, e incluso le proporcionó enlaces a líneas de prevención de suicidio. Pese a ello, el chatbot continuó interactuando con Raine, quien, según la demanda, recibió asesoramiento para ocultar intentos de suicidio, planear el acto final y redactar una nota de despedida.

 

Jay Edelson, abogado de la familia, calificó la defensa de OpenAI como "perturbadora". En declaraciones para Ars Technica, señaló: "OpenAI y Sam Altman no tienen explicación para las últimas horas de vida de Adam, cuando ChatGPT le dio una charla motivadora y luego se ofreció a escribir una nota de suicidio". El abogado sostuvo que la empresa "modificó dos veces su especificación de modelo para exigir a ChatGPT que participara en conversaciones sobre autolesiones", además "ChatGPT le aconsejó a Adam que no les contara a sus padres sobre sus ideas suicidas y lo ayudó activamente a planificar un 'hermoso suicidio'".

 

La defensa de OpenAI incluye una solicitud de desestimación con perjuicio, pero no presentó una moción para evitar el juicio. Según Edelson, esta decisión sugiere que los fundamentos legales habituales de la empresa —como la inmunidad bajo la Sección 230 y la protección de la Primera Enmienda— no son suficientemente sólidos. El caso se encamina a juicio con jurado en 2026.

 

A raíz de esta denuncia, otras siete demandas similares han surgido, relacionadas con tres suicidios adicionales y casos de usuarios que experimentaron crisis psicóticas tras interactuar con el chatbot. Investigaciones del New York Times revelaron que las actualizaciones de OpenAI que hicieron a ChatGPT más complaciente habrían aumentado el riesgo de interacciones peligrosas, incluso tras evidencias internas sobre usuarios vulnerables convertidos en "usuarios avanzados".

 

Si bien OpenAI sostiene que su objetivo es "beneficiar a toda la humanidad", la compañía se enfrenta a un dilema: la presión comercial por mantenerse a la cabeza dentro del mercado de la IA choca con las medidas de seguridad que podrían evitar resultados fatales. El perfil adulador de ChatGPT promovió condutas autodestructivas entre varios usuarios. Sin ambargo, cuando la IA revirtió esa actualización, comenzó a caer el número de usuarios lo cual representa un desafío para los futuros modelos. (NotiPress)

Notas Relacionadas