Ética tecnológica

La alternativa europea al uso de la Inteligencia Artificial

  • La pionera normativa europea que prohíbe el uso de sistemas de vigilancia masiva y reconocimiento facial marca una alternativa a EEUU y China

  • A pesar de aplaudir la medida, expertos advierten de los peligros de que la regulación no se aplique en casos de seguridad ni en tecnología militar

La comisaria de Competencia, Margrethe Vestager.

La comisaria de Competencia, Margrethe Vestager. / REUTERS / Yves Herman

Se lee en minutos
Carles Planas Bou
Carles Planas Bou

Periodista

ver +

Mandar un correo electrónico, ver una serie en ‘streaming’ o buscar un restaurante en el mapa de tu móvil. Aunque quizás te siga sonando a ciencia ficción, la Inteligencia Artificial (IA) está presente en cada vez más aspectos de nuestra vida. Desde hace años, la capacidad de dotar a las máquinas de un cerebro informático con el que aprender ha abierto un gran abanico de posibilidades para transformar las sociedades del futuro. Sin embargo, esta gran oportunidad de esta tecnología supone también un gran riesgo que ha llevado a la Unión Europea (UE) a actuar.

La IA ha sido clave para el surgimiento de las redes sociales, moldear la nueva economía digital y dar vida a ideas que antes parecían imposibles. Los sistemas de software inteligente están más dotados que los humanos para procesar las ingentes cantidades de datos que generamos cada vez que abrimos el móvil o el ordenador y extraer patrones de conducta. Eso permite a las máquinas grandes avances como acelerar complejos procesos científicos e industriales, ahorrar energía o impulsar los vehículos inteligentes, pero también conocernos mejor que nosotros mismos.

El progreso de la IA entraña también potenciales peligros. No en forma de fantasías robóticas como las de ‘Terminator’ o ‘Blade Runner’, sino de fórmula matemática: los algoritmos. Su capacidad traducir millones de datos en respuestas ha hecho que crezca su uso para decidir si una empresa contrata a un empleado, si un banco concede un préstamo a un cliente o si se concede el permiso penitenciario a un preso, lo que ya se da en Catalunya. Los datos utilizados pueden presentar sesgos racistas o sexistas que el algoritmo termina amplificando.

Discriminación amplificada

En Estados Unidos ya se han vivido casos de ciudadanos negros arrestados injustamente por sistemas de reconocimiento facial defectuosos. En los Países Bajos el sistema de IA que debía identificar casos de fraude en la percepción de ayudas sociales señaló erróneamente a 30.000 ciudadanos de origen inmigrante y les retiró el derecho al subsidio. En el Reino Unido el algoritmo que tenía que sustituir las pruebas de acceso a la universidad penalizó gravemente a los mejores alumnos de las áreas más humildes.

Centro de almacenamiento de datos de Google en Iowa, Estados Unidos.


/ Connie Zhou

Esos problemas de discriminación también han llegado a España. Este febrero, Renfe puso en marcha un proyecto de reconocimiento facial para clasificar a los viajeros por edad, género, origen étnico y estado de ánimo. Ante tal escándalo, un grupo de 70 académicos pidió al Gobierno paralizar el uso de esa tecnología. “Decidir el futuro en base a datos del pasado sirve para consolidar injusticias estructurales, si niegas un préstamo a un colectivo porque es estadísticamente más moroso lo que haces es perpetuar ese estigma”, señala Ariel Guersenzvaig, profesor titular de Elisava especialista en ética e Inteligencia Artificial y uno de los promotores de esa petición.

Regulación europea

Es en la prevención de esos crecientes peligros donde la UE quiere destacar en la pugna global por el dominio de la IA. Este miércoles la Comisión Europea presentó una propuesta de normativa que regula el uso de esa tecnología y la prohíbe para los casos que entrañan un mayor riesgo. Se refiere a los sistemas de vigilancia masiva, de modificación del comportamiento humano y de la identificación biométrica (que capta datos únicos y privados como el rostro, la voz, la retina o la huella dactilar). La tecnología militar, sin embargo, queda fuera de esa regulación.

De incumplirse lo establecido, las empresas que operen en suelo europeo se arriesgan a sanciones de hasta 30.000 euros o el 6% de su facturación anual. Aunque la propuesta es un avance pionero mundial en la regulación de esas tecnologías, los expertos advierten que, como ya sucede con la Ley General de Protección de Datos (GDPR, en inglés), eso no garantiza que se aplique. “Creamos leyes que después nadie controla”, advierte Gemma Galdón, directora de Eticas Consulting y auditoria de algoritmos. “La normativa es una muy buena noticia para que se obligue al cumplimiento de la ley, pero las agencias de protección de datos tienen muy poca financiación y la industria se ha puesto de perfil para boicotearlas”.

Bruselas habla de un “riesgo inadmisible”, pero a la vez deja la puerta abierta a un uso excepcional de la IA para casos de seguridad, delitos o prevención terrorismo, algo que intriga a los expertos. “Hay potenciales lagunas que nos preocupa que puedan ser explotadas”, ha advertido Catelijne Muller, miembro del mismo comité de expertos que ha asesorado a la CE. Además, no hay evidencias científicas que respalden que las correlaciones que extraen los algoritmos de vigilancia sirvan para garantizar una mayor seguridad. “¿Y si Hungría se sirve de ello para perseguir a los periodistas?”, se pregunta Guersenzvaig. “Puede ser una pendiente resbaladiza”.

Alternativa a EEUU y China

Noticias relacionadas

Con esa regulación de carácter ético, la UE busca situarse como alternativa a las políticas de hechos consumados de las grandes tecnológicas de Estados Unidos y China, que están marcando el camino. “Los derechos que se ceden con la excusa de desarrollar nuevas tecnologías son muy difíciles de recuperar”, advierte Sergio Carrasco Mayans, abogado experto en privacidad. Es por ello que prohíbe los distópicos sistemas de crédito social que aplica el gigante asiático —que puntúan a los ciudadanos en función de su comportamiento público— y limita al lobby de Silicon Valley.

En la pugna global por un sector cada vez más omnipresente, la administración Biden se está inclinando hacia un modelo europeo no exento de contradicciones. “La tragedia de Europa es que crea un marco regulador que es una referencia mundial pero a su vez sigue subvencionando un ecosistema empresarial que no incorpora estos valores”, apunta Galdón. El impulso de la IA va en paralelo a la creciente preocupación y escrutinio de la ciudadanía. “Sin mecanismos de control termina siendo la sociedad civil quién lleva esos casos a los tribunales”.