ENTREVISTA

Carme Torras: "Hay una ética para la era digital"

La investigadora y especialista en robótica defiende la inteligencia artificial pero siempre arropada por la ética

Carme Torras, especialista en robótica. 

Carme Torras, especialista en robótica.  / ANAIS MORALES

2
Se lee en minutos
Estel Estopiñan

Carme Torras compagina la dirección de un grupo de investigación en robótica asistencial con la escritura literaria. Sus novelas, como 'La mutación sentimental', su versión inglesa 'The vestigial Heart', o 'Enxarxats' abordan los dilemas éticos que acompañan a los robots, la inteligencia artificial o las redes sociales. Licenciada en Matemáticas, doctora en Informática y profesora de investigación en el instituto de Robótica (CSIC-UPC), defiende una nueva ética para la era digital. Es embajadora de Digital Future Society, iniciativa que trabaja para construir un futuro más justo e inclusivo en la era digital.

¿La era digital puede tener un "lado oscuro"?

No hay duda de los enormes beneficios que la robótica, la inteligencia artificial, el Big Data o el reconocimiento facial pueden aportar a nuestra vida. Trabajamos, por ejemplo, en robots asistenciales que ayudan personas mayores con movilidad reducida a vestirse o comer, o que estimulan pacientes con demencia con juegos y ejercicios y evalúan su evolución cognitiva. Son soluciones que contribuyen a mejorar la autonomía de las personas. Pero también deben garantizar unos principios éticos.

¿Y cómo garantizamos robots éticos?

En el caso de nuestros robots, por ejemplo, la persona siempre debe tener el control sobre la máquina. En el caso del Big Data, debemos tener en cuenta que los algoritmos nos ayudan a tratar enormes cantidades de datos, pero también pueden tener un sesgo discriminador por género o raza si no lo evitamos.

¿Puede la inteligencia artificial tener prejuicios?

Un programa informático, por ejemplo, evaluaba el riesgo de reincidencia de los prisioneros estadounidenses, hasta que se demostró que discriminaba a las personas de raza negra. Otro caso sonado fue el de Apple Card, que recibió acusaciones de machista cuando se demostró que el algoritmo que decidía los límites de crédito otorgaba cantidades hasta 20 veces superiores a un hombre que a una mujer con la misma situación financiera.

¿Y cómo lo podemos evitar?

Necesitamos una ética para la era digital. Requiere dos cosas: regulación y formación. La primera está en manos de gobiernos e instituciones internacionales como la Comisión Europea, entre otros. La segunda es imprescindible y necesaria para todos. Debemos formar en tecnología y ética los políticos, la ciudadanía, los jóvenes, y, también, los ingenieros y profesionales digitales que desarrollan las innovaciones tecnológicas.

¿Deberíamos aprender todos inteligencia artificial?

El Gobierno finlandés ha decidido ofrecer a todos los ciudadanos un curso 'on line' de inteligencia artificial gratuito. Lo creó un profesor de Helsinki. Ya lo han seguido más de 200.000 finlandeses y muy pronto será traducido a todos los idiomas de la Unión Europea para que lo pueda conocer toda la población. Aporta conocimientos básicos sobre cómo funciona y para qué sirve la inteligencia artificial y es una buena herramienta para avanzar hacia una era digital donde los principios éticos estén garantizados.

¿Por qué?

Básicamente, porque el conocimiento nos convierte en ciudadanos con conciencia crítica y exigentes con nuestros gobernantes que deben regular y con las empresas, que desarrollan la tecnología. La formación, el conocimiento, terminan con el miedo y la desconfianza, nos permiten tener opinión y, si es necesario, hacer presión sobre nuestros políticos o sobre el mercado para garantizar que esta nueva era sea digital, pero también sea ética.

Noticias relacionadas

¿Mira este futuro digital con optimismo?

Sí. Los riesgos éticos y los posibles peligros no pueden ocultar las inmensas mejoras que ofrece la tecnología. Vivimos un momento apasionante con grandes posibilidades para diseñar el papel que los humanos y las máquinas jugarán en el futuro.