Entrevista

Virgina Eubanks: “El Gobierno usa la tecnología contra la clase obrera porque teme su poder”

En ‘La automatización de la desigualdad’, advierte de cómo la adopción de sistemas de Inteligencia Artificial están sirviendo para vigilar y castigar a los más pobres

Virgina Eubanks, profesora de ciencias políticas de la Universidad de Albany y autora de ’La automatización de la desigualdad’ / Sebastiaan ter Burg (CC)

Virgina Eubanks, profesora de ciencias políticas de la Universidad de Albany y autora de ’La automatización de la desigualdad’ / Sebastiaan ter Burg (CC)

8
Se lee en minutos
Carles Planas Bou
Carles Planas Bou

Periodista

ver +

Una máquina puede decidir si tienes derecho a recibir ayudas públicas, si se te concede un préstamo bancario o si debes tener acceso a una vivienda social. El uso de herramientas de Inteligencia Artificial (IA) que se alimentan de nuestros datos para automatizar complejas decisiones como estas es cada vez más habitual. Sin embargo, ese sistema tiene una víctima: los pobres.

Durante tres años, Virgina Eubanks, profesora asociada de Ciencia Política de la Universidad de Albany (Nueva York), investigó como en Estados Unidos el uso de algoritmos en los servicios de asistencia social, en el sistema judicial y en la vigilancia de barrios sirve para castigar y disciplinar a la clase trabajadora y a los sintecho. Un exhaustivo estudio que analiza como el progreso tecnológico está acentuando la discriminación y exclusión social de los más vulnerables. Un modelo que, como ella misma sufrió, se propaga hacia la clase media. ‘La automatización de la desigualdad’ (Capitán Swing) se publica este lunes.

Ignoramos a los pobres como si fueran algo ajeno a nosotros

En EEUU pensamos que la pobreza solo afecta a una pequeña parte de la población, y a gente con patologías, pero eso es empíricamente falso. Más de la mitad de la población caerá por debajo del umbral de la pobreza en su edad adulta y casi un 65% recurrirá a ayudas sociales. Los sistemas sociales que aceptamos construir para pobres crónicos, minorías raciales, discapacitados, migrantes y marginados terminarán atrapandonos.

¿Es lo que le sucedió a usted?

Sí. Jason, mi pareja, fue apalizado por unos atracadores. Le causaron muchas heridas, una lesión muy grave en el cerebro y estrés postraumático. Una semana antes habíamos contratado un nuevo seguro médico, pero lo cancelaron. Tengo la sospecha de que fue porque nos investigaron para saber si estábamos engañando al seguro. Aunque unas semanas después reanudaron el servicio hemos descendido en la escala económica porque él quedó discapacitado y no puede trabajar y yo estoy trabajando a tiempo parcial para cuidarlo. Ahora nosotros formamos parte de ese sistema de ayudas. Y no fue por tomar ninguna mala decisión.

Más de la mitad de la población caerá por debajo del umbral de la pobreza en su edad adulta

¿Este menosprecio al pobre ha crecido en paralelo a la animadversión al Estado del bienestar?

La marginalización de los pobres no empezó con el neoliberalismo, eso ha estado aquí desde hace mucho tiempo. Busqué cuando se empezaron a usar herramientas contras los pobres y llegué a 1601, cuando se estableció la idea de que la pobreza es un fracaso moral. Tenemos la tendencia a descontextualizar esas tecnologías de vigilancia, pero han sido creadas por las políticas y la cultura que arrastramos de antes.

Los sistemas de IA se prueban en los barrios humildes. ¿Se está usando a los pobres como conejillos de indias?

Para muchos de ellos, decir no a la asistencia social no es una opción. Si no tienes atención médica ni ayuda alimentaria y un asistente ve que te falta comida en casa corres el riesgo de que manden a tus hijos a hogares de acogida. La clase trabajadora tiene mucho poder y el Estado usa esas tecnologías porque lo teme. Podrías negarte a dar tus datos al sistema sanitario pero entonces te morirías en la calle.

"Ninguna razón justifica negar a una niña de cinco años el tener acceso al servicio sanitario. Es una manera inhumana e inaceptable de organizar la sociedad"

Esas tecnologías terminan clasificando a los pobres entre buenos y malos.

Se ha asumido la austeridad, la idea de que no hay suficiente para todos, así que se deben crear herramientas para hacer un racionamiento moral en el que se determine quién merece más las ayudas. En EEUU es muy diferente a Europa, donde hay un acuerdo básico de que hay derechos humanos y un suelo bajo el que nadie puede caer.

Uno de mis mayores miedos es que el uso de esa tecnología de IA haga que ese cribaje entre buenos y malos parezca algo lógico, razonable y justo, cuando nos deja colgados. De todas las familias con las que hablé, no hay ninguna razón legítima que justifique negar a una niña de cinco años el tener acceso al servicio sanitario. Es una manera inhumana e inaceptable de organizar la sociedad.

En Indiana el uso de algoritmos para repartir ayudas públicas terminó denegando erróneamente un millón de prestaciones. De no destaparse esos casos seguiríamos pensando que esas tecnologías son perfectas, que la máquina nunca falla.

Tenemos un pensamiento mágico con la tecnología, confiamos irracionalmente en que sus decisiones son más fiables que las humanas. Pero estos años he visto a mucha gente darse cuenta de que eran erróneas y que los algoritmos arrastraban sesgos racistas y de clase.

Esas herramientas se usan políticamente para desautorizar las decisiones de gente trabajadora, de minorías raciales y mujeres. El problema es que cuando la decisión del algoritmo es diferente de la del trabajador que conoce la situación de su barrio se termina priorizando la del algoritmo, y eso tiene mucho que ver con la raza y el género y nuestra desconfianza de los trabajadores sociales.

"Esas herramientas se usan políticamente para desautorizar las decisiones de gente trabajadora, de minorías raciales y mujeres"

Señala que esos sistemas dividen a la clase obrera. ¿Dificulta eso su organización política?

En EEUU la oficina de asistencia social es una experiencia horrible, peligrosa, sucia, abarrotada y vigilada, pero también es un muy buen lugar para la organización porque se junta gente que está cabreada y al hablar construyen redes de solidaridad. Siempre han llevado a revueltas y a la resistencia. Hay que facilitar el acceso a las ayudas sociales, pero esas tecnologías privan de ese contacto humano.

¿Su uso responde entonces a la motivación ideológica de reducir lo público y reemplazar la política por el algoritmo?

La diseñadora del sistema de cribado de familias que se usó en el condado de Allegheny, en Pensilvania, dijo que cuando se desplieguen estos sistemas de datos se podrá eliminar totalmente la burocracia. Para muchos científicos de datos se trata de una decisión de eficiencia, no política, pero a veces son muy ingenuos.

Uno de los mayores peligros de estos sistemas es que son políticas que pretenden no serlo. Usar la tecnología para hacer listas de quien merece ayuda o decidir dónde van los recursos es una manera de decir que, como comunidad, no queremos lidiar con esas decisiones difíciles. En Los Angeles hay 66.000 personas sin hogar. Eso no se arregla con tecnología. Debemos tener una discusión sobre nuestros valores, por qué permitimos que eso suceda y cómo nos preparamos para renunciar a algo para arreglarlo.

"Uno de los mayores peligros de estos sistemas es que son políticas que pretenden no serlo"

Otro peligro es que esos sistemas de IA crean una situación de poder asimétrico, donde solo quien posee el algoritmo tiene el poder. ¿Nos hace eso aún más vulnerables?

Nos centramos en soluciones técnicas como auditar algoritmos, más transparencia o regular las compañías tecnológicas, pero las familias con la que hablo, aunque no tengan conocimientos expertos de esos sistemas, entienden su impacto. Son buenas soluciones pero parciales, porque el problema se arraiga en cómo explicamos la pobreza y cómo valoramos las vidas de los otros. Y en este país no hay un acuerdo de que todos los seres humanos tienen los mismos derechos.

Pero incluso quienes usan el algoritmo no entienden como llega a las conclusiones que extrae…

Cierto, lo he visto en casos en los que se acusa a un ciudadano de tener una deuda porque lo dice el algoritmo. El Estado no tiene pruebas de ello, pero como el ciudadano tampoco tiene pruebas para negarlo la justicia termina haciendo caso al Estado. En sólo dos Estados he visto decenas de miles de casos así y puede haber millones en todo el país. Cuanto más se sofistican los algoritmos más importante es entender su funcionamiento. Sin embargo, no quiero que la gente piense que es algo tan complicado que no podemos combatirlo, porque hay maneras de detectarlo sin haber estudiado computación.

En EEUU no se regula el uso de esas herramientas de IA porque se dice que frenan la innovación tecnológica. ¿Cree que la nueva legislación europea permitirá un mayor respeto de los derechos humanos?

Estoy muy ilusionada con una regulación que reconozca los usos inadecuados de estas herramientas. Prohibir los sistemas de reconocimiento facial es algo crucial. Pero, más allá de la vigilancia digital, estas tecnologías punitivas están ocurriendo en muchos lugares que la gente no ve, como los programas de asistencia pública.

Noticias relacionadas

Los algoritmos toman decisiones matemáticas, no éticas. ¿Puede haber progreso social si usamos datos sesgados que replican las injusticias del pasado?

Creo que la solución no vendrá de la gente que crea esa tecnología o de las agencias que la usan. El poder nunca cede sin una demanda. Estamos en un momento peligroso en el que dividimos entre pobres buenos, los que lo son por culpa de la pandemia, y los malos, los que ya lo eran antes. Pero este momento también nos permite repensar muchas cosas que nos parecían naturales o inevitables. En Australia han duplicado la cantidad de ayuda que dan a la gente pobre por la pandemia, y antes de eso parecía imposible hacerlo. La ciudadanía debe presionar para lidiar con todos estos problemas.