A partir del 1 de agosto, entra en vigor la ley Europea de Inteligencia Artificial. Con esta nueva legislación, el primer reglamento integral del mundo sobre IA, se busca establecer un mercado interior armonizado para la IA en la UE.
La ley de Inteligencia Artificial (AI Act) se destaca por introducir una definición prospectiva para este tipo de tecnología basado en un enfoque en torno a la seguridad del producto y el riesgo en la UE. Con esta ley se crean categorías para clasificar la IA a partir de los riesgos que pueda presentar:
Riesgo mínimo: la mayoría de los sistemas de IA entran en esta categoría. Estos sistemas no enfrentan obligaciones en virtud de la ley debido al riesgo mínimo que presentan. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
Riesgo específico de transparencia: sistemas como los chatbots deben informar a los usuarios de que están interactuando con una máquina. Ciertos contenidos generados por IA, incluidos los deepfakes, deben etiquetarse como tales, y los usuarios deben estar informados cuando se utilizan sistemas de categorización biométrica o de reconocimiento de emociones.
Alto riesgo: estas IA deberán cumplir con requisitos estrictos, incluidos sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de actividades, documentación detallada, información clara sobre los usuarios, supervisión humana y un alto nivel de ciberseguridad. Entre estos sistemas de IA de alto riesgo se incluyen los sistemas de IA utilizados para la contratación, para evaluar si alguien tiene derecho a obtener un préstamo o para operar robots autónomos.
Riesgo inaceptable: están prohibidos los sistemas que sean vistos como una clara amenaza a los derechos fundamentales de las personas. Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para burlar la libre voluntad de los usuarios, como los juguetes que utilizan la asistencia de voz para fomentar comportamientos peligrosos de los menores, los sistemas que permiten la "puntuación social" por parte de los gobiernos o las empresas y ciertas aplicaciones de vigilancia predictiva.
Además, la ley de IA presenta normas para los denominados modelos de IA de propósito general, los cuales están diseñados para realizar varias tareas. Estos modelos se utilizan como componentes de aplicaciones de IA. La ley abogará por la transparencia a lo largo de la cadena de valor y abordará los posibles riesgos sistémicos de todos los modelos.
Para la aplicación de la legislación, la Oficina de IA de la Comisión será el principal organismo de aplicación de la ley. Aún así, contará con el respaldo de tres órganos consultivos: el Comité Europeo de Inteligencia Artificial, un grupo científico de expertos independientes y un foro consultivo. Las empresas que no cumplan con la norma pueden recibir multas de hasta el 7% de la facturación anual global por infracciones de aplicaciones de inteligencia artificial prohibidas, el 3% por infracciones de otras obligaciones y hasta el 1,5% por proporcionar información incorrecta.