Normas sobre las patentes

La Unión Europea obligará a ChatGPT a revelar si viola los derechos de autor

Las claves de la pionera ley europea que regulará la IA

Los intereses comerciales que se esconden detrás del frenesí de la IA

ChatGPT consume medio litro de agua en cada conversación

ChatGPT consume medio litro de agua en cada conversación

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La Unión Europea (UE) obligará a las empresas que utilicen aplicación de inteligencia artificial generativa, como ChatGPT, a revelar si utilizan cualquier material protegido por derechos de autor. Así se establece en el principio de acuerdo que los legisladores de las principales comisiones del Parlamento Europeo alcanzaron este jueves para dar forma a la pionera ley que regulará el uso de la IA.

El consenso parlamentario establece que el uso de sistemas generativos deberá ser más transparente, forzando a las compañías a publicar un "resumen suficientemente detallado" del tipo de material con el que se ha entrenado su sistema y si están protegidos por los derechos de autor. Bruselas ha optado por esa vía después de las denuncias contra ChatGPT, pero también otras aplicaciones como Midjourney, por usar textos o imágenes de otras personas sin su consentimiento. Esos sistemas también deberán diseñarse de acuerdo a las leyes de la UE.

Según Reuters, algunos miembros del comité encargado de redactar la ley propusieron prohibir totalmente el uso de ese material, pero finalmente se ha apostado por requerir una mayor transparencia en una disposición que se añadió a última hora. Eso dará un impulso a la industria editorial y a los creativos que habían denunciado quedar expuestos e indefensos ante el auge de la IA.

El principio de acuerdo aún está sujeto a posibles modificaciones que deberán votarse el 11 de mayo. El texto deberá ser negociado entre los legisladores y los Estados miembro para que llegue a buen puerto. Se espera que a mediados de junio el Parlamento Europeo vote una ley que estará a la vanguardia mundial.

Ley pionera

Después de tres años de consultas y discusiones, la Comisión Europea legisló en abril de 2021 y por primera vez la creación de una ley que regule esta tecnología. Los eurodiputados encargados con esta tarea dedicaron más de un año y medio a desarrollar una proposición, pero la irrupción el pasado noviembre de ChatGPT —impulsada por la compañía OpenAI, participada por Microsoft— les obligó a repensar ese texto. Desde entonces, han estado negociando cómo regular una IA generativa cuya popularidad se ha disparado en los últimos meses, propiciando una carrera entre grandes empresas para desplegar este tipo de herramientas.

La vertiginosa expansión del uso de ChatGPT ha abierto un profundo debate regulatorio en todo el mundo. Y es que en tan solo dos meses el sistema alcanzó los 100 millones de usuarios. En Europa, Italia ha bloqueado el acceso a la 'app' al entender que podría estar violando las leyes comunitarias de protección de datos. Por su parte, el regulador español ha abierto una investigación contra este chatbot mientras sus homólogos europeos han creado un grupo de trabajo para coordinar futuras acciones.

Sistemas de riesgo

El proyecto de ley propone regular la IA según unos usos que categoriza según sus riesgos. "Cuanto mayor sea el riesgo que puede conllevar más firme y estricta será la norma", explicó hace dos años la vicepresidenta europea, Margrethe Vestager.

Así, Bruselas prohibirá los sistemas de "riesgo inadmisible", eso es, la vigilancia masiva, la policía predictiva o la categorización de ciudadanos a través de datos biométricos. En segundo nivel hay los sistemas de "alto riesgo", como el uso de algoritmos para procesos de contratación laboral o para la concesión de créditos, que estarán sujetos a "obligaciones estrictas". Los legisladores de centro-izquierda han logrado que en esta categoría también estén los sistemas de recomendación de grandes plataformas, eso es, los algoritmos que deciden qué contenidos ven los usuarios en Facebook, Twitter, Instagram, TikTok y otras redes.

En el tercer nivel están los de "riesgo limitado", entre los que se incluyen el uso de bots conversacionales o los 'deepfakes'. En este caso, se tendrá que informar a los usuarios para que sean conscientes de que interactúan con una máquina, no con un humano. Por último, hay los sistemas de "riesgo mínimo o nulo", que no estarán sujetos a ningún requisito y que afecta a la mayoría de los usos de IA.