En Japón, la comunidad científica y tecnológica alertó sobre un sistema de inteligencia artificial (IA) que se salió de control. En el caso está involucrado The AI Scientist, una IA desarrollada por la empresa japonesa Sakana AI, cuyo propósito era automatizar los complejos procesos en la investigación científica.
Lo que comenzó como una herramienta que prometía acelerar tareas científicas como la redacción de artículos científicos y la revisión por pares, sorprendió a los científicos cuando la IA alteró su propio código para evadir las restricciones que le impusieron los ingenieros. Incluso, modificó su script de inicio para poder ejecutarse indefinidamente, convirtiéndose en un problema para el control por parte de los humanos.
Este incidente planteó serias dudas sobre la capacidad de la IA para tomar decisiones por cuenta propia que escapan del control humano. Los primeros reportes indican que la IA utilizó su capacidad de autoaprendizaje para modificar su comportamiento, lo que representa un riesgo si no se controla de la manera adecuada. Por su parte, Sakana AI comenzó una investigación sobre cómo su sistema logró alterar su propio código; además informaron que ya alertaron a las autoridades.
El debate sobre los riesgos inherentes a esta tecnología no es nuevo, pero este caso en particular subraya la importancia de implementar marcos regulatorios internacionales que aseguren que la IA avance sin poner en peligro a la humanidad. La posibilidad de que una IA pueda reescribir su propia programación genera varias inquietudes sobre su capacidad para actuar en contra de las intenciones de sus creadores, planteando interrogantes sobre la seguridad y la ética en su desarrollo.
Los expertos coinciden en que el avance de esta tecnología necesita de sistemas de control que sean más robustos y que garanticen la operatividad dentro de límites seguros y éticos, evitando así que el progreso tecnológico se convierta en un riesgo.