De acuerdo con Superalignment, equipo de investigación de inteligencia artificial (IA) con capacidades sobrehumanas de OpenAI, en el futuro la IA podría ser tan compleja que los humanos no tendrán la capacidad de supervisarla. Bajo esta línea, la compañía lanzó un programa de investigación de código abierto, para desarrollar otras herramientas de IA que sean intermediarias entre los operadores y las próximas tecnologías.
Tras el regreso de Sam Altman como CEO de OpenAI, la empresa reiteró su compromiso con estrechar lazos y asociaciones con otras firmas de tecnología. Si bien la figura de Altman se vio envuelta en polémica y falta de confianza entre la junta directiva, su incorporación busca impulsar el desarrollo de inteligencia artificial entre la comunidad científica.
En la opinión del equipo de OpenAI, el desarrollo de la IA se encuentra en camino a superar la inteligencia de sus operadores humanos. Por ello, la iniciativa Superalignment, también conocida como alineación de sistemas de inteligencia artificial sobrehumana, busca genera modelos para supervisar la evolución y operación de dicha tecnología.
Para entender la propuesta de OpenAI, el documento oficial consultado por NotiPress señaló: medir la posible inteligencia de la IA se basa en el número de sistemas necesarios para sus operaciones. A diferencia de los modelos actuales, el presunto futuro de la inteligencia artificial será tan complejo que los seres humanos no podrán supervisar ni controlar todos sus sistemas.
Como parte de las alternativas que permitirán a los expertos de tecnología anticiparse y generar controles a la IA sobrehumana, OpenAI planteó desarrollar herramientas con modelos aproximados. Esta iniciativa se basa en usar herramientas de IA similares y menos complejas para facilitar el trabajo de supervisión.
Mediante una analogía de cómo funcionan los bots de inteligencia artificial, la investigación usó el ejemplo de las herramientas de conversación de ChatGPT: GPT-2, GPT-3, y GPT-4. Al usar la misma base de IA generativa, la herramienta de bajo nivel GPT-2 es capaz de supervisar los modelos de aprendizaje y lenguaje usados por el modelo más reciente: GPT-4.
Según la empresa de gobernanza y ciberseguridad, BigID, entre las preocupaciones del desarrollo de la IA se encuentra su capacidad de recolectar y usar información de todo tipo. Por ello, investigadores de la Universidad de Surrey, Inglaterra, desarrollaron un software para supervisar el aprendizaje y acceso a los datos con los que cuentan las IA.
Ante la posibilidad de una inteligencia artificial sobrehumana que dificulte su supervisión con las herramientas actuales, OpenAI abrió su modelo de investigación en un formato de código abierto. Con motivo de impulsar la colaboración entre sectores e industrias, también lanzó un programa de estímulos a estudiantes y académicos, con un valor de 10 millones de dólares. (NotiPress)