El Parlamento Europeo ha aprobado la Ley de Inteligencia Artificial (IA) por 523 votos a favor, 46 en contra y 49 abstenciones, en la forma recogida tras el acuerdo alcanzado con los Estados miembros en diciembre de 2023. Se espera que la norma entre en vigor a finales de año.
La ley de IA europea, pionera a nivel global, fija una serie de obligaciones para los sistemas de inteligencia artificial en función de sus riesgos potenciales y su nivel de impacto.
Entre las aplicaciones prohibidas, la norma señala aquellas que atentan contra los derechos de la ciudadanía como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido a priori, salvo en situaciones muy concretas y bien definidas. Los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias estrictas; por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa.
Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.
Obligaciones para sistemas de alto riesgo
La norma también prevé obligaciones para otros sistemas de IA de alto riesgo como las infraestructuras críticas, la educación y formación profesional, el empleo, los servicios públicos y privados (como la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y gestión aduanera, la justicia y los procesos democráticos.
Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Y los ciudadanos podrán presentar reclamaciones sobre los sistemas de IA y recibir explicaciones sobre las decisiones tomadas en base a ellos y que afecten a sus derechos.
Requisitos de transparencia
Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos.
Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes. Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados (ultrafalsificaciones) deberán etiquetarse claramente como tales.
Medidas de apoyo a la innovación y a las pymes
La norma establece, por último, la puesta a disposición de pymes y startups de espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para poder desarrollar y entrenar sistemas de IA innovadores antes de su comercialización.