Entrevista

Frank Pasquale: “Las plataformas tratan a los trabajadores como datos, no como personas”

Charlamos con el académico y autor estadounidense sobre Inteligencia Artificial (IA), algoritmos, robots asesinos y la automatización del mercado laboral

Frank Pasquale, académico y experto en Inteligencia Artificial, en el CaixaForum Macaya de Barcelona.

Frank Pasquale, académico y experto en Inteligencia Artificial, en el CaixaForum Macaya de Barcelona. / Álvaro Monge (EL PERIÓDICO)

7
Se lee en minutos
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en Redes, algoritmos y la intersección entre política y tecnología

Escribe desde Barcelona

ver +

La Inteligencia Artificial (IA) ya forma parte de nuestras vidas y nos afecta en formas que no imaginamos. Frank Pasquale es profesor de la Brooklyn Law School, miembro del Comité Consultivo Nacional de Inteligencia Artificial de Estados Unidos y experto en algoritmos que lleva décadas investigando estos sistemas.

Autor de los libros ‘The Black Box Society’ y ‘New Laws of Robotics’, el académico cerró este martes el ciclo de debates sobre el futuro tecnológico en una conferencia organizada por el Observatori Social de Fundació ”la Caixa” en el CaixaForum Macaya.

La administración pública usa algoritmos para determinar subsidios y las empresas financieras para establecer intereses. ¿Están esos sistemas amplificando las discriminaciones sobre los más pobres?

Sí, existe en muchas ocasiones una profunda amplificación de la discriminación. Hay evidencias de que en el sector público la automatización de ciertos procedimientos ha tenido un impacto negativo. El sector privado despierta aún más preocupaciones, porque las empresas pueden saber tantas cosas privadas de la gente, como su salud o su salario, y eso puede causar discriminaciones.

Los algoritmos extraen conclusiones a partir de datos sobre comportamientos pasados. Eso hace que si, por ejemplo, las clases con peores condiciones socioeconómicas tienden estadísticamente a tener más problemas de salud, la IA que usan los seguros médicos les penalice. ¿Cómo puede haber así progreso?

Exactamente. El problema de muchos algoritmos es que repiten los patrones del pasado y los proyectan al futuro. Y también lo es que esos sistemas se presentan como métodos científicos, cuando realmente son históricos: se basan tan profundamente en el conocimiento pasado que lo repiten. Esa penalización de ciertos colectivos es una práctica común en la policía, pues usan perfiles raciales que tienen sesgos de clase. También se ve en el mundo de las finanzas. Se habla mucho de la inclusión, pero se puede incluir a ciertas personas de forma depredadora o subordinada. Un banco puede detectar a quienes pagan multas por sus retrasos en los pagos y eso perjudica directamente a la persona a la que se apunta.

"La IA de Google no tiene conciencia, pero sabe encontrar las palabras adecuadas para fingirlo".

Un ingeniero de Google ha dicho esta semana que la IA de lenguaje de la compañía estaba experimentando “nuevos sentimientos”. ¿Es verosímil que un sistema informático empiece a tener conciencia?

Llevo tiempo siguiendo este debate y es algo que no puede ser científicamente probado, se trata de una percepción humana. El problema es que la gente que cree que la IA puede tener sentimientos y otros atributos humanos están confundiendo como evidencias lo que es una percepción. El sistema de Google no es consciente, pero está usando todas las palabras que puede para emular que tienen conciencia. Se trata de un fingimiento de emociones humanas más que emociones reales en sí.

En 2015 publicaste ‘The Black Box Society’. ¿Han habido mejoras en los controles del funcionamiento de los algoritmos desde entonces?

El mundo puede dividirse en tres bloques. En Europa el concepto detrás del Reglamento General de Protección de Datos (GDPR, en inglés) es extremadamente fuerte y sabio, pero que el cumplimiento de la ley ha sido lento y no muy efectivo. En Estados Unidos hay algunos esfuerzos para dar responsabilidad al algoritmo. Y en China hay muchos esfuerzos para regular a las grandes tecnológicas pero esa regulación sirve para preservar el poder y el control del gobierno, no para proteger la privacidad.

¿Cómo valora la regulación de la IA que la Unión Europea aprobará este verano?

Creo que es una ley sabia que mira al futuro al catalogar los sistemas de IA según su riesgo. Aún así, creo que no se está poniendo el suficiente dinero en garantizar su cumplimiento y que se debería evaluar el riesgo de estos sistemas antes de su creación para dar licencias, no una vez ya se han aplicado.

Sin embargo, esa ley excluye el uso militar de la IA que ya se está desplegando en las fronteras europeas. ¿Se corre el riesgo de poner en el objetivo a grupos vulnerables como los migrantes?

Sí, usar esos sistemas con los migrantes o para distinguir refugiados legítimos comporta muchos grandes riesgos y eso debería incluirse en la ley que prepara la UE. Hay tantas evidencias de discriminación en las fronteras que es difícil imaginar que la IA pueda hacer llevar a cargo esa tarea sin supervisión.

Se ha demostrado que los sistemas de reconocimiento facial fallan especialmente con las pieles más oscuras.

España prepara el uso de reconocimiento facial en su frontera con Marruecos ¿Qué peligros entraña esa tecnología?

Hay tres grandes peligros. El primero es que los datos no exactos ayuden a normalizar la represión, como cuando los sistemas no reconocen a las mujeres después que se hayan cortado el pelo. El segundo es la discriminación, como cuando identifican de forma errónea o no reconocen las pieles oscuras o a personas trans. Y el tercero tiene que ver con la alienación que produce que te puedan identificar vayas donde vayas y el poder político que ello supone. La gente merece tener privacidad también en público, pero ya hay aerolíneas que gestionan la embarcación identificando al pasajero con reconocimiento facial. Y aún así, no parece ni la opción más eficiente.

Rusia habría usado drones inteligentes en Ucrania. ¿Hace falta una prohibición total de las armas autónomas o una regulación que permita su uso defensivo?

Tendría que alcanzarse una regulación internacional para hacer que el uso de estas armas sea seguro. Sin embargo, la invasión rusa de Ucrania ha puesto en relieve el temor de que, en un contexto de guerra, el exceso de regulación de la IA militar pueda perjudicar a los países que cumplan con las normas y dar ventaja a quien no lo haga.

¿Cómo puede haber un acuerdo internacional si hay países que, como EEUU, lo bloquean porque están invirtiendo en el desarrollo de IA militar?

El problema es que la UE no puede obtener un compromiso de Rusia de que no invertirá en ese armamento, así como EEUU no puede obtener un compromiso creíble de que China hará lo mismo. Esa falta de confianza opera en ambas direcciones y explica que la carrera armamentística ya esté en marcha. Lo óptimo sería lograr un consenso como el que se ha establecido en contra de la proliferación del armamento nuclear.

Y aún así vemos a EEUU y China compitiendo en una carrera por la hegemonía de la IA…

Las grandes potencias deben acordar una desescalada y dejar de invertir en armas de destrucción masiva para lidiar con el cambio climático, la inflación, la escasez y el Estado del bienestar. No es solo terrorífico pensar en el daño que los robots asesinos pueden causar, sino en los recursos que absorben que podrían ir a otras cosas.

La robotización también está afectando el mundo laboral. ¿Han venido a robarnos los empleos o a complementarnos?

No causarán un futuro sin empleos, sino que cambiarán el tipo de trabajo. Eso puede suponer grandes oportunidades laborales. Creo que, más que preocuparnos en sí los robots acabarán con el trabajo de muchas personas, la clave es centrarnos en cómo hacer la transición hacia una economía más productiva.

La automatización de los empleos está llevando a un creciente impacto sobre los trabajadores. La semana pasada, el Gobierno español presentó una medida para ayudar a los empleados a reclamar una mayor transparencia de esos algoritmos.

Sí, es un cambio mayúsculo en el que hay una mayor vigilancia y eso es de una gran preocupación. El primer paso es dar más poder a los trabajadores. El segundo tiene que ser empoderar a los sindicatos y a grupos de la sociedad civil que ayuden a los trabajadores a entender mejor el funcionamiento de esos sistemas.

"El modelo de negocio más avanzado y moderno supone una vuelta al trabajo a destajo del siglo XVIII"

Noticias relacionadas

¿Está el capitalismo de plataformas haciendo que aceptemos un modelo laboral que, en nombre de la innovación, trata a los trabajadores como máquinas?

Así es. La lógica de la economía de plataformas es tratar a los trabajadores como flujos de datos, no como personas, sino como entidades que maximizan los beneficios para la empresa haciendo el mayor volumen de trabajo de la forma más barata y en el menor tiempo posible. Una manera de hacerlo es entrenarlos para que actúen de forma más sensible para los algoritmos, hay muchos ejemplos de manipulación. Estamos viendo como el modelo de negocio más avanzado y moderno supone una vuelta al trabajo a destajo del siglo XVIII. Hay que cuestionar afirmaciones como la ‘flexibilidad laboral’ y asegurarnos de que haya dignidad en el trabajo y autonomía para el trabajador.