La administración del presidente de Estados Unidos, Joe Biden, anunció la adhesión de ocho empresas tecnológicas a una lista de compromisos para impulsar un desarrollo seguro y confiable de la inteligencia artificial (IA). Dichas compañías asumirán de inmediato los compromisos que giran en torno a tres principios fundamentales para el avance responsable de la IA: seguridad, protección y confianza.
Con esta segunda ronda de adhesiones se comprometen a implementar los compromisos las siguientes empresas que trabajan con inteligencia artificial: Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI, y Stability. Según un comunicado de la Casa Blanca, la primera etapa incluyó a Amazon, Anthropic, Google, Inflection, Meta, Microsoft, y OpenAI.
En cuanto a asegurar la seguridad de los productos antes de su introducción al público, las empresas se comprometieron a realizar pruebas de seguridad internas y externas en sus sistemas de IA antes de su lanzamiento. Esto contempla compartir información sobre la gestión de riesgos de sus sistemas de IA con la industria, gobiernos, sociedad civil y la academia.
Construcción de sistemas de IA
Respecto a construir sistemas de inteligencia artificial que prioricen la seguridad, los compromisos solicitan a las empresas invertir en ciberseguridad y salvaguardas contra amenazas internas. Esto se hace para proteger los pesos de los modelos propietarios y no lanzados al ser la parte más esencial de un sistema de IA. Asimismo, deberán facilitar los reportes y hallazgos de vulnerabilidades por parte de terceros en sus sistemas de IA.
Finalmente, para ganar la confianza del público, las empresas de inteligencia artificial se comprometen a desarrollar mecanismos técnicos robustos para informar cuándo un contenido se genera con IA. Igualmente, a informar públicamente sobre las capacidades, limitaciones y áreas de uso apropiado e inapropiado de sus sistemas de IA. Adicionalmente, también deberán reportar tanto riesgos de seguridad como riesgos sociales y los posibles efectos sobre la equidad y el sesgo.
Asimismo, las empresas se comprometieron a priorizar la investigación sobre los riesgos sociales de la inteligencia artificial, incluyendo cómo evitar sesgos perjudiciales y discriminación, y proteger la privacidad. En materia de confianza, el último de los compromisos consiste en desarrollar y desplegar sistemas avanzados de IA para ayudar a la solución de los mayores desafíos de la sociedad. Esto incluye temas desde la prevención del cáncer hasta la mitigación del cambio climático.
De acuerdo con el Instituto de Inteligencia Artificial Centrada en el Hombre, de la Universidad Stanford, la IA alcanzó ya un punto de inflexión crítico en su evolución. Pese a los avances positivos, esta evolución conlleva también ciertos riesgos, como el uso de la IA para la falsificación de imágenes y videos y el uso de bots para manipular la opinión pública. Otros riesgos del uso de la IA incluyen la recolección de datos y la focalización de individuos, así como la posibilidad de ataques cibernéticos impulsados por esta tecnología.
Por esta razón, se ha vuelto prioridad de algunos gobiernos legislar o intervenir de alguna forma en la construcción de un futuro más responsable en el terreno de la inteligencia artificial. En el caso del acuerdo entre el gobierno estadounidense y dichas empresas tecnológicas, aseguran, se busca salvaguardar los derechos y la seguridad de los estadounidenses, protegiéndolos del daño y la discriminación. (NotiPress)