Mobile World Congress

Catalunya llama a un uso ético de la inteligencia artificial

Ricardo Baeza-Yates, director de Investigación en el Instituto de IA Experiencial de la Universidad Northeastern en Silicon Valley

Ricardo Baeza-Yates, director de Investigación en el Instituto de IA Experiencial de la Universidad Northeastern en Silicon Valley / APDCAT

2
Se lee en minutos
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en Redes, algoritmos y la intersección entre política y tecnología

Escribe desde Barcelona

ver +

El uso de la inteligencia artificial (IA) para automatizar o complementar decisiones humanas es cada vez más habitual. Estos sistemas se usan para tareas tan dispares como determinar la asignación de ayudas públicas, la concesión de créditos bancarios e incluso para ayudar a calcular el riesgo de reincidencia de los presos, como sucede en Catalunya. Sin embargo, las máquinas no son perfectas y pueden reproducir todo tipos de sesgos presentes en las bases de datos de las que se nutren. Así, se han visto casos en los que los algoritmos amplifican discriminaciones clasistas, sexistas o racistas que perjudican directamente a los ciudadanos.

Es por eso que la Autoritat Catalana de Protecció de Dades (APDCAT) ha aprovechado la celebración del Mobile World Congress (MWC) para hacer un llamamiento en favor del desarrollo de aplicaciones éticas de esos sistemas y para alertar de sus potenciales peligros. "No podemos apreciar el impacto ni los riesgos que esconde porque la IA transforma el mundo de una forma sin precedentes", ha señalado Meritxell Borràs, directora del organismo público.

Noticias relacionadas

En el panel, ubicado en la zona del 4YFN, también ha participado Ricardo Baeza-Yates, director de Investigación en el Instituto de IA Experiencial de la Universidad Northeastern en Silicon Valley, quien han remarcado los desafíos que tiene ese diseño ético de los algoritmos: que tengan que cumplir unos principios establecidos, que estén regulados por una normativa y que den cabida a las diferencias culturales. Y es que parte de los sesgos que pueden amplificar los algoritmos ya están presentes en las bases de datos. Es por esto que esas bases no solo deben ser representativas de toda la sociedad, sino que también deben ser más justos para no reproducir discriminaciones o estereotipos del pasado.

Entre los potenciales malos usos de la IA destaca el uso indiscriminado de sistemas de videovigilancia, el reconocimiento facial y el control del comportamiento social. La legislación en la que trabaja la Unión Europea (UE) busca regular esta tecnología con la prohibición de estos usos, además del uso de datos biométricos. Sin embargo, varios expertos han denunciado que la nueva ley europea deja fuera de la regulación la tecnología militar. El Gobierno de España y l'Ajuntament de Barcelona también han tomado medidas para garantizar una mayor supervisión pública de los algoritmos y un uso ético de la IA.