El Gobierno dio luz verde al anteproyecto de ley de gobernanza de la inteligencia artificial (IA), que busca garantizar un uso de la IA que sea ético, inclusivo y beneficioso para las personas. Con esta normativa, la ley española se adapta al reglamento europeo de IA, ya en vigor, y pretende que los usuarios puedan identificar y diferenciar los contenidos que son reales de los que son virtuales, además de evitar un mal uso de esta tecnología.
El anteproyecto de ley, que se tramitará por la vía de urgencia, seguirá ahora los trámites preceptivos antes de volver al Consejo de Ministros para su aprobación definitiva. Además de adaptarse al reglamento europeo, se incorpora un nuevo derecho digital de retirada provisional del mercado español de sistemas de IA por la autoridad de vigilancia competente cuando hayan provocado un incidente grave.
El proyecto de ley de IA recoge una serie de medidas para garantizar el buen uso, aplicando sanciones que oscilan entre los 7,5 y los 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior.
Al igual que el reglamento europeo, establece medidas prohibidas de la IA:
- “El uso de imágenes o sonidos imperceptibles para manipular decisiones sin consentimiento”.
- “Explotar vulnerabilidades relacionadas con la edad, la discapacidad o situación económica para alterar comportamientos”.
- “La clasificación biométrica de las personas por raza u orientación política, religiosa o sexual”.
- “La puntuación de individuos o grupos basándose en comportamientos sociales o rasgos personales”.
- “Valorar el riesgo de que una persona cometa un delito basándose en datos personales como su historial familiar, nivel educativo o lugar de residencia”.
- “Inferir emociones en centros de trabajo o educativos como método de evaluación para promoción o despido laboral, salvo por razones médicas o de seguridad”.
Sistemas de alto riesgo
Junto a las medidas prohibidas de IA indicadas, el anteproyecto recoge, de acuerdo al reglamento europeo, ‘sistemas de alto riesgo’, refiriéndose aquellos que pueden adherirse como elementos de seguridad a “productos industriales, juguetes, equipos radioeléctricos, productos sanitarios incluyendo diagnósticos in vitro, productos de transportes, biometría, infraestructuras críticas, educación y formación profesional, empleo, acceso a servicios privados esenciales y a servicios y prestaciones públicos esenciales. En este apartado, también incluye sistemas para sistemas de garantía del derecho, migración, asilo y gestión de control fronterizo, así como para su uso en la administración de justicia y en procesos democráticos”.
Estos sistemas de alto riesgo deberán “cumplir una serie de obligaciones”, sino se exponen a sanciones en función de su gravedad. Así, se entenderá como una infracción “muy grave” cuando el operador de un sistema de IA no comunica un incidente grave, como “la muerte de una persona, un daño que haya comprometido una infraestructura crítica o un daño al medioambiente”, o cuando incumpla las órdenes de una autoridad de vigilancia de mercado. Las sanciones en este caso oscilarán entre los 7,5 y los 15 millones de euros, o hasta el 2% y el 3% del volumen del negocio del ejercicio anterior.
El texto recoge que “un ejemplo de infracción grave es no introducir supervisión humana en un sistema de IA que incorpore la biometría en el trabajo para controlar la presencialidad de los empleados o no disponer de un sistema de gestión de calidad en robots con IA.” La sanción puede llegar hasta los 7,5 millones de euros.
El anteproyecto incluye como una infracción grave no etiquetar correctamente cualquier imagen, audio o vídeo generado o manipulado con IA (deepfake). Estos deberán identificarse como contenidos generados por IA “de manera clara y distinguible a más tardar con ocasión de la primera interacción o exposición”, tal y como recoge el reglamento europeo.
Además, el texto señala como “infracción leve no incorporar el marcado CE en el sistema de IA de alto riesgo o, cuando no sea posible, en su embalaje o en la documentación que lo acompañe”.
Innovación en IA
A partir del 2 de agosto de 2026, el reglamento europeo obliga a los países miembros establecer al menos un entorno controlado de pruebas de IA que fomente la innovación y facilite el desarrollo, la formación, las pruebas y la validación de sistemas innovadores de IA durante un tiempo limitado antes de su comercialización o puesta en servicio.