Organiza:

'Activostech'

Algoritmos y democracia: de la reivindicación a la realidad

  • La cuarta jornada del ciclo ‘Activostech’ reflexiona sobre los riesgos y oportunidades de los sistemas de inteligencia artificial

7
Se lee en minutos
María Refojos
María Refojos

Redactora del suplemento 'activos'.

ver +

Para acelerar los diagnósticos en un hospital, para mejorar la producción de leche en una granja, para reforzar la eficiencia de las energías renovables… La inteligencia artificial (IA) es el cemento armado sobre el que se están construyendo innumerables soluciones tecnológicas orientadas, en general, a mejorar la vida de las personas. Sin embargo, los algoritmos que sustentan estas innovaciones presentan un lado oscuro que suele estar relacionado bien con usos menos amables -predecir comportamientos del internauta para vender productos y servicios, por ejemplo- o con los distintos sesgos discriminatorios que, muchas veces, revisten las respuestas que aportan.

Con la intención de comprender el papel de las tecnologías de inteligencia artificial y analizar si se pueden integrar en la sociedad sin perder de vista la transparencia y la igualdad, se celebró a comienzos de esta semana el debate ‘Activostech: Algoritmos y democracia’, organizado por El Periódico y MWCapital con la colaboración de Cellnex. La charla tuvo lugar dentro de la jornada de Digital Future Society y el Ayuntamiento de Barcelona ‘Humanism in the digital age: the urban contribution’.

Lo primero que hay que tener claro es que los algoritmos no son seres vivos y no parece que el ‘concepto Terminator’ vaya a ser una realidad, al menos a corto plazo. Es decir, "en lo que estamos trabajando a día de hoy es en inteligencias artificiales específicas: necesitamos unos datos, un contexto acotado y entender el entorno para que el algoritmo sea bueno en la tarea para la que sea diseñado", puntualizó Nerea Luis, doctora en Ciencias de la Computación, ingeniera en IA en Sngular y cofundadora de T3chFest.

Nerea Luis, ingeniera en IA en Sngular.

/ MWCapital

Nerea Luis: "Tenemos que poner el foco en cómo se recogen los datos porque deriva en sesgos"

Un algoritmo es, a grandes rasgos, un conjunto de operaciones ordenadas que resuelven un problema. Se entrenan con datos, se extraen patrones y sirven como sistemas de apoyo. Pero en ningún momento "son conscientes de las decisiones que están tomando o de a quién están afectando", definió Luis. Y es así como se llega al origen del problema: es la mano humana la que condiciona el comportamiento de estos algoritmos, y no a la inversa. "La ética no se puede codificar, es algo muy humano y tenemos que ver cómo abordarlo", manifestó.

Por una parte está el problema de los datos con los que se alimentan los algoritmos. Según la ingeniera en IA en Sngular, se está empezando a plantear la necesidad de meter en cintura la recolección de los datos para evitar que plasmen desigualdades. "Trabajamos con históricos de datos, con lo cual predecimos el futuro en base al pasado. Ahora nos estamos dando cuenta de que los históricos están mal, porque no representan lo que es la sociedad", resumió. Por otra parte, está la responsabilidad que recae sobre el equipo de desarrollo del código y en cómo se gestiona. "A un ingeniero le dices ‘ahora tienes que tener en cuenta esto (la ética)’ y no sabe cómo abordarlo", planteó.

Y desde el departamento de diseño y desarrollo al despacho del jefe: al subir en el escalafón corporativo se adentra en el reparto de responsabilidades. Así es como lo percibe Gemma Galdón, directora ejecutiva y fundadora de Eticas Research, que criticó la "concentración de poder" en manos de los ‘tech bros’, que han convertido el ámbito de la tecnología en un espacio de "impunidad y desregulación" en el que las instituciones públicas no logran seguir el ritmo ni proteger a los usuarios.

Gemma Galdón, directora ejecutiva y fundadora de Eticas Research.

/ MWCapital

Gemma Galdón: "La tecnología que hoy nos rodea capta y reproduce desigualdades"

"Hemos pasado de la sociedad del control a la sociedad de la manipulación sin que podamos siquiera opinar sobre lo que está ocurriendo", reflexionó esta doctora en políticas de seguridad y tecnología, quien calificó de "naif" la percepción de las posibilidades de la tecnología en los años 80 y 90. Hace 20 años se esperaba que los avances tecnológicos y en inteligencia artificial ejercieran de igualador social, en cuanto a acceso a infraestructuras, información o participación, pero se ha visto un resultado distinto.

Reproducir desigualdades

"La tecnología refleja el mundo; las dinámicas sociales. Y es una sociedad profundamente desigual, injusta para muchos de sus colectivos e individuos y atravesada por todo tipo de sesgos. Hablamos mucho del género, pero también vemos sesgos de edad, por capacidades, origen, color de piel o por el estatus", explicó Galdón, quien ahondó en la idea planteada por Nerea Luis de que todos estos sesgos se traducen en los datos que alimentan las herramientas de IA. "La tecnología que hoy nos rodea es una tecnología de captación y reproducción de desigualdades. Así de claro. Nos hace peores como sociedad porque aprende de lo peor de nuestras dinámicas", afirmó con rotundidad.

En un contexto en el que hay softwares que amplifican discriminaciones racistas, machistas o clasistas, y en el que parece que no hay escapatoria a la pérdida de privacidad, Galdón calificó de mera "reinvindicación" el planteamiento de una democracia algorítmica. Aunque al mismo tiempo cree que no es tarde para comenzar a hacer cambios.

En este sentido, Raquel Jorge Ricart, investigadora analista en el ámbito de tecnología, políticas digitales y gobernanza del Real Instituto Elcano, señaló dos preguntas fundamentales como el punto de partida a la hora de plantear la democracia algorítmica, "en cuanto a cómo hacemos que los algoritmos sean más democráticos". La primera cuestión sería preguntarse "cómo queremos gobernar la inteligencia artificial" y la segunda, si la intención es gobernar solo la IA o "todas las tecnologías en general". Porque, por ahora, falta un "idioma común" con el que unificar acciones, directrices y protocolos.

Raquel Jorge, investigadora analista en el Real Instituto Elcano.

/ MWCapital

Raquel Jorge: "Faltan coordinación y recursos para la democracia algorítmica"

Y según advirtió esta experta falta, en general, comunicación en torno a la inteligencia artificial. "A nivel de gobernanza tecnológica vemos que realmente es un mosaico de iniciativas: por parte de estados, de empresas, de onegés… Está disperso, desordenado, no hay un hilo conductor, no hay coordinación… Y no sólo desde entre sectores, sino también dentro de un mismo sector", aseguró.

El gran desafío estaría en superar la diseminación actual de códigos internos, tanto a nivel de coaliciones entre unos pocos países como en las empresas, que ante la falta de regulación optan por diseñar sus propias cláusulas de transparencia. "Esto permite hacer coaliciones con estados y otras empresas y llevar a cabo procesos que se critican, precisamente, porque no tienen esa fase de rendición de cuentas", puntualizó Jorge. Para que la revolución tecnológica aplique la ética deben habilitarse mecanismos y recursos para que países, empresas y organizaciones de la sociedad civil "se pongan de acuerdo", añadió.

En esta idea abundó Andrea G. Rodríguez, investigadora del CIDOB, el centro de relaciones internacionales de Barcelona, en base a las conclusiones de un análisis elaborado por el CIDOB a partir de 20 documentos del sector público, tanto nacional como internacional, y privado. "Cuando nos ponemos a investigar marcos éticos que han sacado diferentes actores, nos encontramos con que no hablan entre sí", aseveró. A partir de este estudio, el ‘think tank’ propone un estándar común  con seis principios básicos (justicia algorítmica, sostenibilidad fundamental, transparencia, rendición de cuentas, ciberseguridad y protección de datos).

Andrea G. Rodríguez, investigadora del CIDOB.

/ MWCapital

Andrea G. Rodríguez: "Quizás el humanismo tecnológico empiece a tejerse desde la proximidad"

El rol de las ciudades

Y es en esta tarea donde las ciudades pueden desempeñar un rol importante, de acuerdo con Andrea G. Rodríguez. "Quizá el humanismo tecnológico empiece a tejerse desde la proximidad, porque la comunicación entre sectores es algo que sí está", comentó, y completó la idea aportando tres argumentos: "Las ciudades son sistemas para identificar cuáles son los valores y necesidades. También existen las plataformas para comunicar estas necesidades, de manera más directa y que tengan un impacto en las políticas públicas. Y por último, que se puedan discutir".

Noticias relacionadas

No obstante, en su opinión también hay mucho camino por recorrer desde la actual ‘datocracia’ en la que las administraciones públicas no cumplen con su cometido de proteger los derechos "digitales y digitalizados" de los ciudadanos y en los que estos mismos individuos no acaban de estar comprometidos con los procesos participativos que podrían canalizar sus demandas y necesidades. Así, para Rodríguez es clave que todos los agentes implicados se pregunten qué esperamos del futuro. "Porque estamos construyendo algo que va a ser especialmente relevante en los próximos años y que ya está empezando a ser relevante".

Educación y control deberán ir de la mano para controlar los riesgos asociados a la inteligencia artificial y extraer y sacar todo el partido a las oportunidades que pueden generar. "Todo lo que se está hablando en este debate tiene que entrar en la agenda política, y no dentro de 5 o 10 años; ahora. Porque si no se ve como un problema, luego va a ser demasiado tarde", concluyó Nerea Luis.

De izquierda a derecha: Carles Planas (moderador del evento), Nerea Luis (Sngular), Gemma Galdón (Eticas Research), Raquel Jorge (Real Instituto Elcano) y Andrea G. Rodríguez (CIDOB).

De izquierda a derecha: Carles Planas (moderador del evento), Nerea Luis (Sngular), Gemma Galdón (Eticas Research), Raquel Jorge (Real Instituto Elcano) y Andrea G. Rodríguez (CIDOB). / MWCapital