Nueva ley en la UE

La regulación europea de la inteligencia artificial, en 3 claves

La UE aprueba la primera ley sobre IA del mundo

La presidenta de la Comisión Europea, Ursula von der Leyen, durante el debate del estado de la Unión en el Parlamento de Estrasburgo, este miércoles.

La presidenta de la Comisión Europea, Ursula von der Leyen, durante el debate del estado de la Unión en el Parlamento de Estrasburgo, este miércoles. / JULIEN WARNAND / EFE

Carles Planas Bou

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La ley europea de la inteligencia artificial (IA) está más cerca que nunca. Este miércoles, el Parlamento Europeo dará luz verde a la primera regulación horizontal de esta tecnología en todo el mundo tras el "histórico" acuerdo político sellado el pasado mes de diciembre.

Fue en abril de 2021 cuando la Comisión Europea propuso la elaboración de un reglamento que dictaminase una serie de requisitos para los usos de la IA según su riesgo. A finales de 2022, cuando parecía haber consenso, la irrupción de ChatGPT devolvió a los legisladores a la casilla de salida. Casi tres años después de esa primera propuesta, el bloque comunitario ha pactado un texto legislativo que marcará los próximos años.

Aquí resumimos las tres claves que hay que saber sobre este ambicioso proyecto.

Categorización según riesgos

Categorización según riesgos

La iniciativa conocida como AI Act categoriza los sistemas de IA según los peligros que entrañen para la sociedad. Bruselas establece cuatro estadios distintos. Así, prohibirá los que supongan un "riesgo inaceptable". Es el caso de la manipulación cognitivo-conductual, la clasificación de personas en base a su comportamiento o estatus socioeconómico, o los programas de identificación biométrica en tiempo real.

Un escalón por debajo están los usos de "alto riesgo", permitidos, pero sujetos a estrictas obligaciones. Así, los sistemas que puedan afectar negativamente a la seguridad o a los derechos fundamentales —aplicados en ámbitos como la educación, los automóviles o en el control de fronteras— serán evaluados antes de su comercialización y también durante su ciclo de vida.

En el tercer peldaño están las IA con un riesgo de manipulación "limitado". Se refiere a asistentes virtuales o a sistemas generativos como ChatGPT. Estos deberán cumplir con criterios de transparencia como informar a los usuarios de que están interactuando con una máquina o de que los contenidos que ha creado son sintéticos.

Por último están las que no tienen riesgo o uno "mínimo". Son las IA presentes en la mayoría de servicios digitales que usamos, desde videojuegos a filtros de correo basura. Estas pueden usarse sin necesidad de cumplir con ninguna norma en especial.

IA generativa

IA generativa

2023 fue el año de la eclosión de la IA generativa, los modelos que se alimentan de grandes volúmenes de datos de internet para ser capaces de crear de forma automatizada todo tipo de textos, imágenes o audios. La regulación de estas aplicaciones fue también uno de los aspectos más discutidos entre los legisladores europeos. El texto acordado en diciembre establece que las compañías responsables de esos programas, como Microsoft o Google, deberán ser transparentes e indicar con qué datos los entrenan para evitar así posibles violaciones de los derechos de autor.

Francia es el país que más ha presionado para diluir esas obligaciones, pues considera que perjudicarán a 'startups' europeas de IA como la francesa Mistral AI. También lo han hecho empresas como OpenAI, creadora de ChatGPT. El acuerdo final no incluye la rebaja solicitada por París y Silicon Valley.

Excepciones y amenazas

Excepciones y amenazas

La última clave es quizás la más polémica y crucial: la vigilancia biométrica. En junio, el Parlamento Europeo prohibió el uso de sistemas como el reconocimiento facial, considerado por las organizaciones en defensa de la privacidad como una amenaza a los derechos fundamentales. El acuerdo político sellado en diciembre veta la identificación en tiempo real, pero añade varias excepciones que benefician especialmente a policía y ejércitos. Así, las fuerzas y cuerpos de seguridad podrán usar esta tecnología en espacios públicos y con una autorización judicial previa para casos limitados como terrorismo, trata de personas o localizar a violadores.

Suscríbete para seguir leyendo