ENTREVISTA

Carina Lopes: "Los algoritmos discriminan sobre todo a las mujeres"

La responsable del laboratorio de ideas de la Digital Future Society, que estudia el impacto social de la tecnología, ha analizado los sesgos de los sistemas de inteligencia artificial que operan en el sector público

Es responsable del laboratorio de ideas de la Digital Future Society, que estudia el impacto social de la tecnología, y ha analizado los sesgos de los sistemas de inteligencia artificial que operan en el sector público. Junto a otros ponentes, debatirá sobre los derechos digitales de la ciudadanía en un ciclo del Palau Macaya de la Fundació la Caixa que organiza el Centre de Visió per Computador.

La sesión tendrá lugar presencialmente en el Palau Macaya (inscripciones en: palaumacaya.org) y también en línea por los canales de Facebook, Twitter y YouTube del CVC

Carina Lopes, responsable del laboratorio de ideas de la Digital Future Society.

Carina Lopes, responsable del laboratorio de ideas de la Digital Future Society. / JORDI OTIX

4
Se lee en minutos
Gemma Tramullas
Gemma Tramullas

Periodista

ver +

¿Somos analfabetos digitales?

Analfabetos es muy contundente. Diría que tenemos un nivel de alfabetización muy básico. Usamos internet, el móvil y cuatro aplicaciones, pero no sabemos qué pasa detrás de una pantalla o de una cámara y cómo impactarán estas tecnologías en nuestras vidas.

¿Vamos hacia una sociedad videovigilada?

En Londres es imposible visitar la ciudad sin que tu imagen quede grabada en alguna cámara, y la búsqueda de los terroristas de los atentados de 2017 se hizo con videovigilancia. Pero en Europa se tiene mucho cuidado en respetar la privacidad y el criterio de proporcionalidad.

Las playas de Barcelona están videovigiladas desde la pandemia.

Pero no hay reconocimiento facial ni se graba ninguna información personal, solo se mide el espacio ocupado.

Por algo se empieza…

Este 'software' no permite ningún otro uso. Además, el reglamento general de protección de datos ya regula parte de estas actuaciones, y la Comisión Europea está considerando una moratoria para prohibir las tecnologías de reconocimiento facial en el espacio público.

"Se calculaba que en 2020 habría 450 millones de cámaras en China"

En China lo ven de otra manera.

Los datos son de otro planeta. Se calculaba que en 2020 habría 450 millones de cámaras, pero la pandemia ha acelerado mucho su uso. Dentro de cinco años conoceremos su impacto real.

Da miedo.

Ya se está investigando cómo identificar a las personas por el patrón de las venas de cuello y manos o de los poros de la piel. La tecnología siempre tiene dos lados. El reto es definir cuáles son los usos de riesgo y trabajar para ponerla al servicio de la mejora de la vida los ciudadanos.

¿La tecnología tiene ideología?

Por sí sola no, pero depende de cómo los humanos la diseñamos y la aplicamos. El gran reto de los sistemas de reconocimiento facial, por ejemplo, son los falsos positivos, porque les cuesta reconocer rostros de minorías étnicas y sobre todo de mujeres.

¿Por qué de mujeres?

Los algoritmos casi siempre acaban discriminando a ciertos colectivos. Se habla mucho de los sesgos étnicos, pero aún es mayor respecto a las mujeres. Es un dato que siempre queda oculto.

"Los equipos que diseñan estos sistemas son hombre de 25 a 45 años"

¿Podría poner un ejemplo?

En un estudio de cocinas se alimentó al algoritmo con imágenes de cocinas en las que en un 30% aparecía una mujer. Al final del proceso de 'machine learning' (aprendizaje automático), el algoritmo asociaba cocina y mujer más del 60% de las veces, es decir, duplicaba el sesgo inicial del sistema.

¿Quién asocia inicialmente cocina y mujer?

Los equipos de desarrolladores, programadores e ingenieros que diseñan estos sistemas son muy homogéneos. Suele ser un perfil de hombre blanco entre 25 y 45 años que no refleja la diversidad de la sociedad ni trabaja con perspectiva de género.

¿El futuro lo están diseñando hombres blancos de 25 a 45 años?

Es lo que hay ahora, pero se está haciendo un esfuerzo muy importante para cambiar, desde promover el estudio de las STEM (ciencia, tecnología, ingeniería y matemáticas) entre las jóvenes a atraer a mujeres profesionales hacia el sector tecnológico.

Es un proceso lento. ¿Qué más se puede hacer?

Si el sesgo está en el tipo de imágenes, como en las cocinas, esto se puede solucionar. Pero si vas a aplicar una tecnología en un contexto sensible hay que evaluar previamente los riesgos y corregirlos. Además, tiene que haber una validación final de un ser humano.

¿Por qué se ha dejado de hablar de 'smart city'?

El concepto salió de la propia industria, que hablaba de ciudad inteligente por todos los datos que generarían aparatos tecnológicos como sensores, cámaras… La idea no ha desaparecido, pero el ciudadano tiene que estar más en el centro. La tecnología tiene que ser humanista.

El ciudadano está en el centro, pero para obtener sus datos.

Pero tenemos opciones, de ahí la importancia de la alfabetización. Europa es más restrictiva en el uso de nuestros datos y ya hay empresas que están desarrollando modelos de negocios que priman la privacidad y no dependen tanto de la explotación de datos personales.

Pero el monopolio lo tienen unas pocas empresas.

Por ahora sí, pero ya se ha publicado que Estados Unidos obligará a Facebook a vender Instagram y Whatsapp. Europa es más restrictiva en el uso de nuestros datos, y tiene un reglamento 'platform-to-business' que regula el equilibrio de poder entre plataformas.

¿Cree que vamos hacia un uso equilibrado de la tecnología?

Sí, pero necesitamos la colaboración de todos: gobiernos, medios de comunicación y ciudadanía.

Noticias relacionadas

La tecnología avanza tan rápido que no da tiempo a pensar.

En el caso de las redes sociales, la velocidad es un resultado colectivo. Depende de cada uno de nosotros gestionarlo de una manera sana y equilibrada. Por eso es tan importante la concienciación y la alfabetización digital de la sociedad.