Investigación

Italia bloquea el acceso a ChatGPT por no respetar la protección de datos

El regulador del país restringe con "efecto inmediato" la popular aplicación de inteligencia artificial por una presunta violación de la normativa europea en la recopilación de información de los usuarios

La pantalla de inicio de ChatGPT en un teléfono.

La pantalla de inicio de ChatGPT en un teléfono. / Shutterstock

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Italia ha bloqueado "con acceso inmediato" el acceso a ChatGPT y ha abierto una investigación contra el popular chatbot de inteligencia artificial (IA) por una presunta violación de las normas de recopilación de datos.

En un comunicado publicado este viernes, la agencia italiana de protección de datos ha decidido restringir provisionalmente el acceso a ChatGPT para que así no procese los datos de los usuarios del país hasta que se esclarezca si cumple o no con el Reglamento General de Protección de Datos (GDPR), la pionera ley europea de privacidad.

"En el auto, el Garante de la Privacidad constata la falta de información a los usuarios y a todas las partes interesadas cuyos datos recoge OpenAI, pero sobre todo la ausencia de base jurídica que justifique la recogida y almacenamiento masivo de datos personales con el fin de "entrenar" los algoritmos que subyacen al funcionamiento de la plataforma", reza el comunicado del regulador

La autoridad nacional italiana también ha acusado a la aplicación creada por la compañía OpenAI, con el apoyo financiero de Microsoft, de no comprobar la edad de sus usuarios. A priori, los menores de 13 años no podrían usar este sistema conversacional, pero el regulador sospecha que esa limitación podría ser papel mojado.

La empresa estadounidense, que no tiene ninguna oficina en la Unión Europea (UE), tiene un plazo de hasta 20 días para anunciar qué medidas adoptará para cumplir con la petición de las autoridades italianas. De no respetar la ley europea se le podría imponer una multa de hasta 20 millones de euros o hasta el 4% del volumen de negocios anual global, según explica el regulador en su comunicado.

Carrera frenética

El lanzamiento a finales de noviembre de ChatGPT ha desencadenado una oleada de impactos que van más allá del sector tecnológico. Microsoft ha adoptado esa tecnología y la ha integrado en la mayoría de sus servicios, desde su buscador Bing a aplicaciones de oficina como Word o Excel. El multimillonario negocio que promete la IA ha lanzado a otros gigantes del sector, entre ellos Google o Meta (propietaria de Facebook e Instagram), a seguir los mismos pasos. Todas ellas se han apuntado a una frenética carrera empresarial bajo otra promesa, que eso acelerará la productividad de las empresas.

En tan solo dos meses, este chatbot capaz de simular conversaciones humanas y responder a todo tipo de preguntas alcanzó los 100 millones de usuarios activos mensuales, lo que la convertiría en la aplicación de consumo de más rápido crecimiento de la historia. Su uso se ha desplegado en todo tipo de sectores, desde la prensa hasta en la educación, popularizándose especialmente entre los alumnos.

El pasado 30 de marzo, el grupo de defensa de los consumidores BEUC pidió a las autoridades nacionales y de la UE que investigaran ChatGPT. Italia es el primer país del club comunitario que opta por bloquear temporalmente el acceso a ese chatbot. La semana pasada, la aplicación sufrió una violación de datos.

Riesgos de ChatGPT

La restricción italiana se debe a motivos legales, pero estos generadores de texto también suponen problemas éticos. Uno de los principales riesgos es que sirva para amplificar la desinformación, pues —por mucho que puedan simular el razonamiento humano— sus respuestas se basan en cálculos estadísticos de la información que extraen de internet, lo que hace que en multitud de ocasiones incurran en errores y falsedades. Esta misma semana, Europol, la agencia policial de la UE, ha advertido en esa misma dirección y ha apuntado que ChatGPT también puede instrumentalizarse para lanzar campañas de manipulación y de ciberdelincuencia.

Esta misma semana, más de 1.000 personalidades del ámbito científico, empresarial y académico publicaron una carta abierta en la que piden parar durante seis meses el entrenamiento de programas de IA más potentes que GPT-4, la última generación del modelo de lenguaje que hay detrás de ChatGPT. Aunque la misiva bebe de la narrativa de Silicon Valley que sobredimensiona las capacidades de esta tecnología, denuncia que se trata de una "peligrosa carrera" cuyas consecuencias son impredecibles.