Regulación europea

La Unión Europea culmina la aprobación de la ley que regulará la inteligencia artificial

Tres claves para entender la nueva ley de la UE que regulará la IA

Thierry Breton, candidato francés a comisario.

Thierry Breton, candidato francés a comisario. / JOHN THYS / AFP

Silvia Martinez

Silvia Martinez

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La Unión Europea (UE) ya tiene la primera ley del mundo que permitirá regular y establecer un estándar global sobre el uso de la inteligencia artificial (IA). Tras la aprobación de la directiva en marzo pasado por el pleno del Parlamento Europeo, este martes ha sido el Consejo -que reúne a los representantes de los 27 gobiernos- quien ha dado, sin debate y por unanimidad, el aprobado definitivo a una legislación calificada de “histórica”. La normativa se aplicará de forma gradual hasta su plena entrada en vigor en 2026.

“La adopción de la ley es un hito importante para la UE. Esta ley histórica, la primera de su tipo en el mundo, aborda un desafío tecnológico global que también crea oportunidades para nuestras sociedades y economías”, ha destacado el secretario de estado de digitalización de Bélgica, Mathieu Michel, cuyo país ostenta este semestre la presidencia de la UE. “Europa habla con una sola voz sobre la IA. Y no, no es una clonada”, ha celebrado el comisario de industria y mercado interior, Thierry Breton.

El objetivo de la nueva regulación será fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en todo el mercado único de la UE por parte de actores públicos y privados, al mismo tiempo que garantiza el respeto de los derechos fundamentales de los ciudadanos y estimula la inversión y la innovación en Europa.

La regulación sigue un enfoque basado en los riesgos. Es decir, cuanto mayor sea el peligro para la sociedad más estrictas serán las normas. Por ejemplo, los sistemas de IA que presenten solo un riesgo limitado estarán sujetos a obligaciones de transparencia muy leves, mientras que los sistemas de IA de alto riesgo estarán autorizados, pero tendrán que cumplir requisitos y obligaciones más estrictos para obtener acceso al mercado de la UE.

Sistemas prohibidos

La nueva ley prohíbe los sistemas de manipulación cognitivo-conductual y puntuación social porque su riesgo se considera inaceptable. También prohíbe el uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual. La prohibición se aplicará ya desde el próximo mes de noviembre. Además, estarán prohibidos los sistemas destinados a crear bases de datos faciales captados de manera indiscriminada a través de Internet o de grabaciones audiovisuales.

La normativa también establece que los modelos de inteligencia artificial generativa, como ChatGPT, tendrán que dejar claro si un texto, una canción o una fotografía se han generado a través de la IA y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

Exenciones

Pese a esta lista de prohibiciones, la normativa también incluye una serie de exenciones para los sistemas utilizados exclusivamente con fines militares y de defensa o investigación, uno de los elementos de la nueva ley que más polémica y confrontación ha generado durante la tramitación de la misma en el Parlamento Europeo.

Finalmente, las autoridades policiales podrán utilizar las cámaras de reconocimiento fácil siempre y cuando lo hagan con autorización judicial con el objetivo de prevenir una amenaza terrorista, el tráfico de personas, la explotación sexual, y para la búsqueda de víctimas y menores desaparecidos.

Evaluaciones de riesgo y multas

Antes de que algunas entidades que prestan servicios públicos implementen un sistema de IA de alto riesgo, tendrán que realizar una evaluar del impacto sobre los derechos fundamentales. El reglamento también prevé una mayor transparencia con respecto al desarrollo y uso de sistemas de IA de alto riesgo. Cuando los usen entidades públicas estos tendrán que estar registrados en la base de datos de la UE y los usuarios de un sistema de reconocimiento de emociones tendrán que informar a las personas cuando están expuestas a dicho sistema.

En caso de incumplimiento, la legislación incluye multas importantes que oscilan entre el 1,5% del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o 7,5 millones de euros, hasta el 7% o los 35 millones de euros. En el caso de las pymes y las empresas de nueva creación la ley menciona que estarán sujetas a multas administrativas proporcionales.

Para velar por el cumplimiento, la ley incluye una nueva arquitectura de gobernanza que incluye la creación de una oficina de IA dentro de la Comisión, un panel científico de expertos independientes para apoyar las actividades de aplicación de la ley, una Junta de AI con representantes de los Estados miembros para asesorar y ayudar en la aplicación consistente y efectiva de la Ley y, por último, un foro consultivo para que las partes interesadas proporcionen conocimientos técnicos a la Junta de IA y a la Comisión.