Tecnología

Catalunya desarrolla un modelo pionero en Europa para prevenir que la inteligencia artificial invada derechos fundamentales

L’Autoritat Catalana de Protecció de Dades presenta su propuesta coincidiendo con la irrupción de China en este mercado con DeepSeek.

"Muchos países pueden invertir mucho en tecnología porque la protección de los derechos tiene un coste muy bajo", denuncia un experto.

DeepSeek pincha la burbuja de la IA en Wall Street, golpea a valores europeos y amarga a las tecnológicas

Alessandro Mantelero, profesor en el Politecnico di Torino y líder de un grupo de trabajo de l’Autoritat Catalana de Protecció de Dades (APDCAT)

Alessandro Mantelero, profesor en el Politecnico di Torino y líder de un grupo de trabajo de l’Autoritat Catalana de Protecció de Dades (APDCAT) / Parlament de Catalunya

Paula Clemente

Paula Clemente

Barcelona
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

Desde que la inteligencia artificial (IA) tiene un reglamento que la regule en Europa, las normas del juego han cambiado para esta industria. Entre otras cosas, porque esta normativa obliga a que cada nuevo producto, solución o servicio que pueda comportar riesgos para las personas (porque emplea datos masivos o porque se mueve en el campo de la salud, por ejemplo), pase por un filtro que asegure que no invadirá derechos fundamentales. Así lo establece un artículo 27, que, sin embargo, no especifica cómo hacerlo.

“No se entiende exactamente cuáles son los parámetros para transformar la norma en algo práctico”, denuncia Alessandro Mantelero, profesor titular de derecho civil y derecho y tecnología en la Universidad Politécnica de Turín y líder de un grupo de trabajo montado en el seno de l’Autoritat Catalana de Protecció de Dades (APDCAT) para abordar precisamente este reto. Es este grupo el que ha presentado este martes, día internacional de la protección de datos, un modelo pionero y con vocación global para garantizar el desarrollo de una IA que no choque con derechos básicos.

Se trata de una herramienta muy inspirada en otros sistemas de evaluación de riesgos (industriales, por ejemplo), para que las empresas o entidades interesadas puedan aplicarlo en bloque. Consiste en tres partes: primero, un cuestionario que ayuda a determinar el tipo de inteligencia artificial y en qué contexto se va a utilizar; segundo, una herramienta de evaluación basada en matrices que calcula la probabilidad de que se impacte sobre un derecho fundamental; y, por último, un cuadro de gestión del riesgo que precisa la libertad afectada, la gravedad, si es fácilmente solucionable o no, así como medidas para prevenir estos impactos.

Mantelero ha explicado que ya existía algún modelo similar, pero ninguno tan completo en cuanto a su fiabilidad, su transparencia y, sobre todo, en que se ha aplicado ya en cuatro casos prácticos.

La Universitat Politècnica de Catalunya, por ejemplo, lo ha empleado para validar el buen hacer de un algoritmo que prediga el riesgo de abandono de un alumno mediante datos del campus virtual o de su matrícula. El modelo advirtió riesgos como la pérdida de autonomía de la persona, la invasión de su intimidad e incluso posibles sesgos, ante lo que sugirió comportamientos como limitar el acceso a estos datos o revisar periódicamente las conclusiones y el cálculo. CaixaBank evaluó un posible sistema para predecir el grado de encaje a una vacante de empleo y ordenar los candidatos en función de esta puntuación. Lo ha mejorado tras detectar posibles invasiones del derecho a la protección de los datos o a la no discriminación, dado que el algoritmo se entrena con datos históricos y puede perpetuar la desigualdad entre hombres y mujeres.

El peligro de DeepSeek

El documento que recoge todo esto (incluida la receta secreta de la metodología) se hará público en tres idiomas porque, dicho por Mantelero, están “convencidos de que esta herramienta puede ser útil a muchas entidades”. “Esto no tiene que ser para las empresas que van a hacer evaluaciones como una ‘big four’ [las consultoras EY, KPMG, Deloitte o PwC], su certificación es un sello final, y esto es una herramienta de diseño”, ha apuntado el profesor.

La directora de la APDCAT, Meritxell Borràs

La directora de la APDCAT, Meritxell Borràs / Parlament de Catalunya

“La IA está transformando la forma de trabajar, la forma como se investiga e incluso como nos relacionamos las personas, y esto implica un salto cualitativo que afecta a administración, sector privado y a todo tipo de negocios”, había contextualizado preliminarmente la directora de la APDCAT, Meritxell Borràs. “Hemos tenido el don de la oportunidad, presentando este modelo ahora”, ha agregado, en relación, entre otras cosas, con la eclosión pública ayer de DeepSeek, una IA china que ha demostrado que se puede desarrollar esta tecnología de forma mucho más rápida y barata de lo que se creía.

Esto –ha concluido luego el profesor Mantelero– demuestra la importancia de disponer de modelos como el que ha desarrollado su grupo de trabajo: “En China se desarrolla IA porque muchos datos se pueden recoger, pero no sabemos exactamente como o cuando se van a recoger o si eso se ha hecho de forma alineada con la protección de los derechos fundamentales”, ha lanzado. “Ese es el problema de la autocracia: muchos países pueden invertir mucho en tecnología porque la protección de los derechos tienen un coste muy bajo”.