La IA, vista por la Unión Europea en la Ley de Inteligencia Artificial

El Parlamento Europeo se encuentra debatiendo la Ley de Inteligencia Artificial (IA), una norma que clasifica a los distintos sistemas de IA en cuatro niveles de riesgo.

A medida que son más los usuarios, profesionales y compañías que aprovechan las ventajas de la IA generativa en el desarrollo creativo de tareas, más prisa se dan los legisladores en plantear normativas que garanticen el empleo seguro de esta tecnología así como el resto de variantes de la inteligencia artificial. 

Es el caso de la Unión Europea que, a pesar de contar con una propuesta para regular la IA desde 2021, poco tiempo tardó el organismo – apenas 11 días- en añadir al borrador un epígrafe enfocado a regular el uso de la IA generativa, popularizada por el auge de ChatGPT, Dall-E o Midjourney y herramientas similares. 

Entre las obligaciones incorporadas el pasado abril, se cita el deber de informar a los usuarios de que se encuentran interactuando con un sistema de inteligencia artificial “excepto en las situaciones en las que esto resulte evidente debido a las circunstancias y al contexto de utilización”. 

Se deberá informar del funcionamiento del sistema cuando los usuarios empleen una herramienta de reconocimiento de emociones o un sistema de categorización biométrica. Y respecto a los programas que generen o manipulen imágenes, sonidos o vídeo “que se asemeje notablemente a personas, objetos, lugares u otras entidades o sucesos existentes, y que pueda inducir erróneamente a una persona a pensar que son auténticos o verídicos (ultrafalsificación)” tendrán que informar públicamente que el contenido se ha generado de forma artificial. 

Niveles de riesgo de los sistemas de IA

Además de la IA generativa, la normativa contempla la regulación de más casos de uso de la IA. La piedra angular de la AI Act es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA puede ocasionar en la seguridad y salud del usuario o en alguno de sus derechos fundamentales. 

El sistema contempla cuatro niveles. El nivel más alto, los sistemas considerados de riesgo inaceptable, son aquellos que vulneran la seguridad y los derechos fundamentales de los usuarios y por tanto quedan prohibidos. La norma expone como ejemplo los sistemas de identificación biométrica en lugares públicos en tiempo real o los sistemas de puntuación social empleados por un gobierno. 

En un nivel inferior se encuentran los sistemas de IA de alto riesgo, que aunque estén permitidos, obligan a los desarrolladores y a los propios usuarios a cumplir una serie de normas, como un testeo riguroso, contar con documentación que avale que la calidad de los datos que emplea el sistema es el adecuado y un marco de trabajo de rendición de cuentas que detalle el proceso de vigilancia humana que se realiza. 

En este campo se incluyen los vehículos autónomos, los sistemas de gestión de empleados, las herramientas de servicios públicos que empleen IA, las aplicaciones de IA que participan en las cirugías asistidas con robótica o los sistemas de identificación biométrica. 

En un escalón más abajo se sitúan las herramientas de IA con riesgo limitado, cuyas obligaciones se limitan al cumplimiento de medidas de transparencia. En la norma se cita como ejemplo el uso de chatbots, donde los usuarios deberán “ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada de seguir o retroceder”. 

En la base de la pirámide de riesgos se encuentran, por último, aquellos sistemas con riesgo mínimo o sin riesgo que, de acuerdo a la normativa, incluiría la mayoría de aplicaciones actuales de la IA, como los videojuegos con IA integrada o filtros de spam. 

Multas de hasta 30 millones de euros

Si no se cumplen alguno de los requisitos contemplados en la norma, se establece la imposición de multas que podrían alcanzar los 30 millones de euros o un 6% de ingresos globales de una compañía. Entregar documentación falsa o engañosa a los reguladores para la monitorización de los sistemas también trae consigo sanciones. 

Asimismo, se ordena la creación de un Consejo Europeo de Inteligencia Artificial, responsable de vigilar la implantación de la regulación y la aplicación uniforme de la misma en toda la Unión Europea. Entre las tareas asignadas, el lanzamiento de opiniones y recomendaciones ante determinadas consultas y la elaboración de guías para las autoridades de cada Estado-miembro. 

En vigor a partir de 2024

La Ley de Inteligencia Artificial se encuentra siendo debatida en el Parlamento Europeo. Una vez aprobada y obtenida la revisión final en la última fase, la del trílogo, se espera que comience a aplicarse en la segunda mitad de 2024