Tras la reinstauración de Sam Altman como CEO de OpenAI, la controversia surgió tras el porqué de la decisión inicial de la junta directiva para despedirlo, pues se especulaba que existían conflictos internos con relación al enfoque de la seguridad de la inteligencia artificial (IA).
La tensión se intensificó cuando se filtró información sobre una carta escrita por investigadores de OpenAI, dirigida a la junta, advirtiendo sobre un "poderoso descubrimiento de inteligencia artificial" conocido como Q* que podría representar una amenaza para la humanidad. Esta IA, en desarrollo, está diseñada para superar las capacidades humanas en la mayoría de las tareas económicamente valiosas, lo que suscitó preocupaciones éticas y de seguridad.
i love openai, and everything i’ve done over the past few days has been in service of keeping this team and its mission together. when i decided to join msft on sun evening, it was clear that was the best path for me and the team. with the new board and w satya’s support, i’m…
— Sam Altman (@sama) November 22, 2023
Aunque se desconoce la naturaleza exacta del proyecto Q*, aseguran que tiene la capacidad de resolver problemas matemáticos de nivel primaria. Aunque puede parecer algo menor, este es un gran avance en el campo de la IA generativa, que hasta ahora ha sido eficaz en tareas como la escritura y la traducción, y no tanto en áreas que requieres respuestas únicas o precisas, como las matemáticas.
Sin embargo, el miedo entre los desarrolladores radica en que una Inteligencia Artificial General (AGI) con capacidades de generalizar, aprender y comprender, como un humano, podría superar las limitaciones humanas y actuar de manera autónoma, lo que incluiría la posibilidad de que esta se rediseñe a sí misma. Este potencial llevó científicos y empresarios como Stephen Hawking y Elon Musk a expresar su preocupación por el riesgo de que una AGI avanzada pueda superar a la humanidad.
“Los humanos, que son seres limitados por su lenta evolución biológica, no podrán competir con las máquinas y serán superados” aseguró Stephen Hawking.
???? #UltimaHora en #IA: OpenAI revela proyecto Q* (Q-Estrella), un avance hacia la #Superinteligencia que resuelve ecuaciones matemáticas con precisión. ¿Un gran paso o un riesgo para la humanidad? ???????? #InnovacionIA #FuturoDeLaIA pic.twitter.com/vIggMAyLJE
— Bio (@alejantrino) November 24, 2023
Pero la discusión en cuanto a la AGI no se limita a cuestiones de seguridad, sino que también habrá que abordad el impacto socioeconómico que tendría, como la eventual situación en la que estarían los humanos en cuando al mercado laboral. A medida que esta tecnología avanza, el equilibrio entre la innovación y la prudencia se vuelve cada vez más crucial.