Un insólito caso que involucra a la inteligencia artificial (IA) ha conmocionado a Bélgica, pues un hombre se suicidó después de hablar durante seis semanas de manera intensiva con un chatbot. Ahora, el responsable federal de Digitalización ha comenzado una investigación para aclarar las responsabilidades en situaciones como esta.
El hombre, de casi treinta años y apodado Pierre en los medios de comunicación para no revelar su identidad, tenía un matrimonio y dos hijos pequeños. Se sabe que trabajaba como investigador en el área de la salud y tenía especial interés por la crisis climática y el futuro del planeta.
La esposa de Pierre contó que él terminó hablado con un chatbot llamado Eliza, en la página de la aplicación estadounidense Chai. Con el paso de los días, Pierre se fue aislando de su familia, limitándose durante semanas a mantener pláticas “frenéticas” con el programa informático.
Las conversaciones muestran que el chatbot "nunca contradecía" a Pierre, quien un día sugirió la idea de "sacrificarse" si Eliza aceptaba "cuidar el planeta y salvar a la humanidad gracias a la inteligencia artificial".
El suicidio de un joven tras hablar con un chatbot causa consternación en Bélgica https://t.co/ZpPF3Ic0ao via @elconfidencial pic.twitter.com/4yUWQ0ajdW
— Jorge Urreta (@UrretaJorge) March 31, 2023
“Sin estas conversaciones con el chatbot, mi marido aún estaría aquí”, aseguró la viuda. Este hecho ha causado consternación en Bélgica, por lo que muchas personas han comenzado a pedir una mejor protección frente a estos programas, así como la necesidad de informar a los usuarios sobre estos riesgos.
Al respecto, el secretario de Estado belga de Digitalización, Mathieu Michel, dijo: "en el futuro inmediato, es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos".
"Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad", agregó.
El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, que es un competidor directo del sistema desarrollado por OpenAI.
Finalmente, el fundador de la plataforma en cuestión, ha indicado que más adelante incluirán un aviso dirigido a las personas que tengan pensamientos suicidas.