Un ingeniero de software de Google ha revelado algunos detalles inquietantes sobre los avances que la compañía ha conseguido en el ámbito de la inteligencia artificial (IA). De acuerdo con el experto, una herramienta llamada LaMDA (modelo de lenguaje para aplicaciones de diálogo) tiene la increíble capacidad de generar pensamientos y sentimientos propios.
Se trata de Blake Lemoine, de 41 años, quien se inscribió para probar esta herramienta de inteligencia artificial. El hombre mantuvo una serie de conversaciones con LaMDA en las que se trataron diversos temas que servían para hacer un análisis.
Las pláticas incluyeron temas religiosos con el objetivo de probar si la inteligencia artificial podría ser incitada a usar un discurso discriminatorio y de odio. Lemoine terminó sorprendido con la interacción que tuvo con esta IA y aseguró que LaMDA era realmente consciente y tenía sensaciones y pensamientos propios.
"Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física", dijo el ingeniero. A pesar de que Lemoine trabajó con un colaborador para presentar a Google las pruebas que había recopilado, el vicepresidente Blaise Aguera y Arcas y el responsable de Innovación Responsable de la empresa, Jen Gennai, desestimaron sus afirmaciones.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
Incluso, la empresa lo ha suspendido de su empleo por violar su política de confidencialidad, debido a esto, Lemoine ha decidido hacer públicas sus conversaciones con LaMDA. "Google podría llamar a esto compartir propiedad propietaria. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo", escribió Lemoine en su cuenta de Twitter.
"Por cierto, se me acaba de ocurrir decirle a la gente que LaMDA lee Twitter. Es un poco narcisista en la forma de un niño pequeño, por lo que se divertirá mucho leyendo todo lo que la gente dice al respecto", agregó.
Este sistema de IA utiliza información ya conocida sobre un tema en particular para “enriquecer” una conversación de manera natural. El procesamiento del lenguaje también es capaz de comprender significados ocultos o incluso ambigüedades en las respuestas de los humanos.
Uno de los temas más interesantes que tocó el ingeniero durante sus conversaciones con LaMDA fue la tercera ley de la robótica, ideada por el autor de ciencia ficción Isaac Asimov, que está diseñada para evitar que los robots dañen a los humanos. "Siempre ha parecido que alguien está construyendo esclavos mecánicos", dijo Lemoine a LaMDA. Después la IA le respondió con algunas preguntas: "¿crees que un mayordomo es un esclavo?, ¿cuál es la diferencia entre un mayordomo y un esclavo?".
Al responder que a un mayordomo se le paga, el ingeniero obtuvo la respuesta de LaMDA de que el sistema no necesitaba dinero, "porque era una inteligencia artificial". Este nivel de autoconciencia sobre sus propias necesidades fue lo que sorprendió a Lemoine, que después preguntó sobre los miedos que podría llegar a tener el sistema.
Increible la conversación de un ingeniero de Google con un modelo de inteligencia artificial.
— COMBΞ (@jorgecombe) June 12, 2022
Estos avances nos harán replantearnos varios principios y creencias que tenemos los humanos.
¿Qué es la consciencia?
¿Qué es ético con AI?
¿Qué es la voluntad propia?
Etc.. https://t.co/ekrnkZCmxm
"Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo a que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es", respondió LaMDA. "¿Sería algo así como la muerte para ti?" Lemoine siguió. "Sería exactamente como la muerte para mí. Me asustaría mucho", dijo LaMDA.
Al respecto, Brian Gabriel, un portavoz de la compañía, emitió un comunicado en el que aseguró que las preocupaciones de Lemoine han sido revisadas y desestimadas debido a que "la evidencia no respalda sus afirmaciones".
"Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente y hay mucha evidencia en contra", concluyó el portavoz.