El uso de la inteligencia artificial en la Unión Europea estará regulado por la Ley de Inteligencia Artificial (IA), la primera ley integral sobre IA del mundo. Bruselas ha dado un paso gigante en esta norma que establece cómo pueden utilizar las empresas estas tecnologías.
La UE, que llevaba dos años preparando el texto, ha introducido cambios tras el boom de los desarrollos de inteligencia artificial generativas, como ChatGPT. El texto de la futura ley ha sido aprobado en votación con una mayoría amplia de 84 votos a favor y 12 abstenciones. Tras la adopción negociadora sobre la ley el pasado 14 de junio, comienzan ahora las conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la UE. El objetivo es alcanzar un acuerdo a finales de 2023.
Inversión de más de 1.000 millones anuales
En el plano económico, la Comisión Europea decidió mover ficha en 2021 con la puesta en marcha de dos planes, Horizonte Europa y Europa Digital, con los que se invertirán 1.000 millones de euros anuales en el sector. Además, estos programas pretenden movilizar adicionalmente inversiones de los Estados miembros y los organismos privados para alcanzar los 20.000 millones anuales.
En 2022, según Statista, la inversión mundial en Inteligencia Artificial superó los 92.000 millones de euros. La compañía IDC, por su parte, estima que la aportación en Europa a la IA podría superar las previsiones de la Comisión Europea y superar los 33.000 millones.
Seguridad y transparencia
La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medioambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales, según un comunicado del Parlamento Europeo, acerca de la futura Ley.
Clasificación del riesgo
La nueva normativa establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la IA. El marco incluye cuatro niveles de riesgo: inaceptables, alto, limitado y mínimo. Aquellos niveles de riesgo, considerados inaceptables, incluyen manipulación cognitiva del comportamiento de personas o grupos vulnerables (por ejemplo, juguetes activados por voz que fomenten comportamientos peligrosos), clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales y sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
En el caso de la IA generativa, la Ley establece que tendría que cumplir requisitos de transparencia: revelar que el contenido ha sido generado por IA; diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entretenimiento.
“Competir con grandes potencias en IA en China y EEUU”
Patricia Matey, CEO y fundadora de Adsviu, señala que “se trata de una Ley que busca armonizar la innovación con el pleno respeto de los derechos fundamentales de los individuos, así como la promoción de los valores europeos”. Y añade que “el impulso de esta regulación comunitaria está siendo una de las prioridades de la presidencia española de la Unión Europea”.
Bruselas ha tomado la iniciativa “para competir contra grandes potencias en IA, en Estados Unidos y China, y así liderar una opción alternativa que permita desarrollar nuevas tecnologías sin perder de vista cuestiones fundamentales como son la seguridad y la transparencia”, sostiene Patricia Matey.