Seguridad informática

Protección de Datos recomienda a administración y colegios no incorporar ChatGPT cuando traten datos personales

Linda Castañeda, doctora en Tecnología Educativa: "ChatGPT ahora mismo es ese alumno vago con labia"

"Esto es el colmo": tu próxima canción favorita la ha hecho la Inteligencia Artificial

Archivo - Una persona utiliza el software de texto ChatGPT de la empresa OpenAI.

Archivo - Una persona utiliza el software de texto ChatGPT de la empresa OpenAI. / Frank Rumpenhorst/dpa - Archivo

EFE

EFE

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La Autoridad Catalana de Protección de Datos (APDCAT) ha recomendado a la Generalitat, a ayuntamientos, escuelas, universidades y colegios profesionales, entre otras entidades, que no incorporen el sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial ChatGPT en la prestación de servicios públicos cuando se traten datos personales.

En la recomendación 1/2023, la APDCAT aconseja esperar a que el Comité Europeo de Protección de Datos se pronuncie sobre si la herramienta cumple con el Reglamento General de Protección de Datos de las personas físicas en lo que respecta a su tratamiento y a la libre circulación de estos datos en la Unión Europea y el Espacio Económico Europeo.

Según la APDCAT, el uso actual de ChatGPT "genera importantes dudas sobre la información de carácter personal que trata, tanto la de las personas que lo utilizan directamente como la de terceros que se puede estar volcando".

La recomendación recoge la preocupación "manifiesta y creciente en las últimas semanas" por el impacto que el uso de la Inteligencia Artificial, y más singularmente el servicio ChatGPT, puede tener en los derechos y libertades de las personas físicas afectadas.

Protección de Datos ha recordado a las entidades que el Comité Europeo de Protección de Datos ha anunciado la creación de un grupo de trabajo para cooperar e intercambiar información entre las distintas autoridades de protección de datos en el ámbito de la Inteligencia Artificial. Ello viene motivado por el bloqueo de la herramienta ChatGPT acordado en Italia.

En la recomendación, la APDCAT reconoce la Inteligencia Artificial como "una herramienta de apoyo a la toma de decisiones en cualquier ámbito", pero al mismo tiempo reclama que su desarrollo "respete el marco normativo en materia de protección de datos y no suponga un agravio para a los derechos y libertades de la ciudadanía".

En este sentido, la Autoridad advierte de que "actualmente la tecnología permite dibujar perfiles y patrones a partir de datos personales que pueden servir para influir directamente en las personas", y alerta de que "ante el uso masivo e intensivo de datos es necesario encontrar las herramientas adecuadas para proteger los derechos y libertades".