Entender más

¿Cómo distinguir la verdad de la mentira en la era de la Inteligencia Artificial?

Herramientas como los 'chatbots', las técnicas de 'deep fake' y otras similares permiten crear textos, fotos, audios y vídeos falsos con apariencia de autenticidad y facilitan el engaño y la manipulación en los ecosistemas digitales

Los expertos exigen que las plataformas tengan un mayor control de lo que circula por sus redes y reclaman una mejora de la alfabetización digital de la población para que aprenda a distinguir la verdad de la mentira en internet

robot

robot / ANDREU DALMAU/EFE

Juan Fernández

Juan Fernández

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La gran noticia tecnológica de 2022 se hizo esperar, pero acabó causando tanta admiración como inquietud. La apertura al público a principios de diciembre de ChatGPT, el ya famoso 'chatbot' basado en la Inteligencia Artificial (IA), despertó curiosidad entre los usuarios por su fantasmal habilidad para brindar conversaciones que difícilmente pueden distinguirse de las que mantendríamos con un humano, pero también ha agitado el debate de los complejos escenarios a los que nos abocan este y otros recursos digitales similares y de nuestras aptitudes para vivir rodeados de ellos. 

Aparte de entretenidas disquisiciones virtuales, la herramienta se presenta capaz de escribir sesudos ensayos, sentidos poemas y truculentas novelas a partir de un puñado de indicaciones que le demos. Es cuestión de tiempo que ese artículo periodístico que pronto recibiremos en nuestra pantalla o ese ‘bestseller’ que veremos en el escaparate de nuestra librería favorita nos hagan preguntarnos si han sido elaborados por una persona o por un programa informático, y si lo que ambos cuentan ha superado los convenientes controles de autenticidad o eso también ha sido cosa del algoritmo.

Contenidos artificiales

ChatGPT viene a sumarse a la pléyade de soluciones, todas basadas en la IA, que en los últimos meses y años se han puesto en circulación para crear contenidos artificiales de audio, imagen, e incluso obras de arte, a partir de sorprendentes manipulaciones de la realidad.

Las tiendas de aplicaciones para el móvil están llenas de propuestas para elaborar fotos y vídeos falsos basados en tecnologías de ‘deep fake’ e igualmente es hoy posible adulterar la voz humana para que parezca que ha dicho algo que nunca ha dicho.

El escenario que anticipan todas estas herramientas es cautivador y atesora un cierto punto divertido y simpático. ¿Quién se resiste a jugar a envejecer su propio rostro para ver cómo será dentro de 20 años -según un programa de tratamiento de imagen-, o a manipular la cara de su cuñado para hacerle decir en un vídeo falso algún disparate que nunca ha dicho?

Una de las campañas publicitarias más impactantes de 2021 fue la de una marca de cervezas que, usando estas tecnologías, consiguió resucitar a Lola Flores en un spot, y logros similares se han conseguido en los últimos meses con otras personas fallecidas. 

Pero más allá de la broma y la fascinación, la Inteligencia Artificial generativa –así se denomina al uso de IA para la creación de contenidos nuevos y originales- nos enfrenta a escenarios inéditos y difusos en los que cada vez va a ser más difícil distinguir la verdad de la mentira y separar lo auténtico de lo falso.

Se anuncian películas protagonizadas por actores irreales cuyos rostros han sido creados por ordenador a partir de la suma algorítmica de miles de caras anónimas, y las firmas de seguridad han empezado a alertar del uso fraudulento de voces de usuarios de servicios bancarios por parte de ciberdelincuentes para manipularlas y simular que han dado órdenes que nunca han dictado. 

Vídeo falso

Dos semanas después del comienzo de la guerra de Ucrania, en los móviles de miles de ciudadanos del país invadido apareció un vídeo del presidente Volodimir Zelenski anunciando la rendición de sus tropas y animando a los soldados a deponer las armas.

Elaborado por hackers rusos, el clip tardó pocas horas en ser señalado como falso, pero la maniobra da la medida del potencial que tienen estas herramientas para confundir a la población, infinitamente superior al experimento radiofónico de ‘La guerra de los mundos’ de Orson Welles. Nueva paradoja contemporánea: la irrupción en nuestras vidas de la Inteligencia Artificial nos expone como nunca a la falsedad y el engaño. Vaya, que nos vuelve más tontos y manipulables.

Aunque el campo de batalla es digital, el debate trasciende lo tecnológico y se adentra en el campo de la filosofía, la sociología y la psicología, y obliga a reflexionar sobre cómo nos hemos relacionado con la verdad, la mentira y el derecho a la información a lo largo de la historia y cómo nos relacionaremos en el futuro. En lo que todos los analistas coinciden es en que el nuevo escenario ha llegado para quedarse y que estamos ante uno de los grandes retos de las décadas venideras. 

“Esto es el principio y no solo no tiene marcha atrás, sino que se acelerará en los próximos años”, advierte Silvia Leal, experta en tecnología y tendencias de futuro, quien pronostica: “Si hoy nos cuesta distinguir un vídeo falso de otro verdadero, en el metaverso será aún más difícil, porque ahí no lo veremos, sino que lo experimentaremos, y nos costará mucho más reconocer que esa experiencia estaba basada en mentiras”. 

En el metaverso nos costará mucho más reconocer que esa experiencia que hemos vivido estaba basada en mentiras

— Silvia Leal, experta en tecnología y tendencias de futuro

Como gladiadores romanos enviados a la guerra de las galaxias, nos disponemos a sumergirnos en el futuro inmediato –ya lo estamos haciendo- en entornos cognitivos para los que no estamos preparados. Acostumbrados a confiar en lo que nos dicen nuestros ojos, ¿qué efecto tendrá vivir rodeados de impactos que podrían estar distorsionados, en ocasiones con intenciones perversas?

“A nivel psicológico es terrible, porque conduce a la creación de falsos recuerdos. Después de habernos tragado tres vídeos ‘fake’, instintivamente preferimos creernos un cuarto vídeo manipulado antes que reconocer que nos han engañado”, responde Antoni Baena, coordinador del grupo de psicología digital del Colegio de Psicología de Catalunya. 

Una imagen generada por inteligencia artificial.

Una imagen generada por inteligencia artificial. / JORDI V. POU

Rápida digitalización

En esa predisposición a dar por bueno todo lo que nos llega por las pantallas cuenta mucho la relación tan íntima que hoy mantenemos con esa ventana al mundo que llevamos en el bolsillo del pantalón. “La digitalización ha sido tan rápida en tan poco tiempo que hoy confiamos más en las máquinas que en nosotros mismos. Ahora, para saber si está lloviendo, preguntamos al móvil en vez de mirar por la ventana, y si no coinciden, tentemos la tentación de creer más a la pantalla”, señala el filósofo de la ciencia Jordi Pigem, autor del ensayo ‘Tècnica y totalitarisme’, donde analiza las “consecuencias deshumanizadoras” que ha tenido la eclosión de la era digital. 

Después de habernos tragado tres vídeos ‘fake’, instintivamente preferimos creernos un cuarto vídeo manipulado antes que reconocer que nos han engañado

— Antoni Baena, coordinador del grupo de psicología digital del Colegio de Psicología de Catalunya

Lo cierto es que la mentira no nació el día en que se grabó el primer bit de información en un disco duro. “Convivimos con ficciones desde que nos reuníamos alrededor de una lumbre a contarnos historias. Sin embargo, en el mundo digital se han disparado las opciones para el engaño, porque la verdad y la falsedad compiten al mismo nivel, nos llegan por la misma pantalla”, explica el escritor Juan Jacinto Muñoz Rengel, autor de ‘Una historia de la mentira’, donde rastrea los largos siglos que llevamos dándonos gato por liebre unos a otros. En su opinión, nunca fue tan fácil mentir como ahora, “ni la mentira fue tan peligrosa como hoy. Pasa igual con las armas. Hace 2.000 años, con una espada podías matar a un hombre. Hoy tenemos armas para cargarnos el planeta”, observa.

La digitalización ha sido tan rápida en tan poco tiempo que hoy confiamos más en las máquinas que en nosotros mismos

— Jordi Pigem, filósofo de la ciencia

Hechos alternativos

La dimensión social y política de la falsedad que circula por la esfera digital, y que las nuevas aplicaciones de IA han venido a perfeccionar, tiene una expresión que hace apenas una década nos habría parecido inimaginable: los ‘hechos alternativos’. En 2017, la consultora norteamericana de tecnologías de la información Gartner calculaba que la mitad de los contenidos que encontraríamos en la red en 2022 serían falsos.

“No sé si hemos llegado ya a ese nivel, pero las ‘fake news’ no han parado de aumentar en los últimos años hasta convertirse en una auténtica religión. Sobre todo tras la pandemia. Hoy hay miles de personas en el mundo que necesitan creer las mentiras que han visto en internet, y que han convertido en el eje de sus vidas. Esto es muy peligroso”, advierte el periodista Marc Amorós, autor de varios ensayos sobre el fenómeno de las noticias falsas.

En el mundo digital se han disparado las opciones para el engaño, porque la verdad y la falsedad compiten al mismo nivel, nos llegan por la misma pantalla

— Juan Jacinto Muñoz Rengel, escritor

Si mañana se supiera que la mitad del aceite que hay en las cocinas españolas está adulterado, saltarían todas las alarmas. Sin embargo, que buena parte de los contenidos que trasegamos a diario en formato digital sea fraudulento, parece causar menos espanto. “Debería preocuparnos y movernos a exigir cambios, porque igual que hay herramientas que facilitan la mentira, también las hay para detectar los engaños. Las autoridades deberían obligar que se apliquen, y es mejor hacerlo hoy que cuando la Inteligencia Artificial esté más desarrollada”, señala Silvia Leal.

En opinión de Marc Amorós, las plataformas no pueden mantenerse de perfil en este debate. “Deben responsabilizarse de que todo lo que viaja por sus redes es verdadero y no engaña a sus usuarios”, reclama el periodista.

Hoy hay miles de personas en el mundo que necesitan creer las mentiras que han visto en internet, y que han convertido en el eje de sus vidas

— Marc Amorós, periodista experto en 'fake news'

En noviembre de 2022, la Audiencia de Barcelona dictó la primera condena que se sentencia en España contra un tuitero por difundir una ‘fake new’, en este caso un guardia civil que había acusado falsamente a un grupo de menores no acompañados de un centro de Canet de Mar de ser los agresores que aparecen en un vídeo grabado originariamente en China.

La sentencia marca un precedente importante, pero los expertos en cultura digital reconocen que es imposible ir tras todas las mentiras que se vierten en la red con mayor o menor grado de sofisticación y creen que sería más útil poner el foco en los receptores de esos contenidos que en sus creadores.

Alfabetización digital

“Lo único que se puede hacer para luchar contra las ‘fake news’ es mejorar la alfabetización digital de la población para que aprenda a distinguir la realidad del engaño y se haga responsable cuando busca información en la red, acudiendo solo a fuentes fiables”, apunta Amorós. Según un estudio de la Universidad Carlos III de Madrid, la mitad de los estudiantes de Secundaria es incapaz de distinguir una noticia falsa de una inventada. “Es urgente educarles, y a toda la sociedad, para que tengan más espíritu crítico y no se traguen lo primero que les llega al móvil”, recuerda el psicólogo Antoni Baena.

La alternativa es un mundo preso del engaño y la desconfianza. “Ése es el peor escenario, cuando la gente piensa que todo es mentira, porque nos anula como sociedad. Es tan malo creérnoslo todo como dudar de todo”, advierte Muñoz Rengel. “Es el sueño de cualquier dictador de nuestro pasado. Al final, este debate no va sobre la verdad y la mentira digital, sino sobre la libertad y el totalitarismo”, añade el pensador Jordi Pigem.

Suscríbete para seguir leyendo