Entender + las nuevas tecnologías

Mentiras profundas, dudas razonables

La técnica del ‘deepfake’ usada para revivir a Lola Flores en el anuncio de Cruzcampo anima el debate sobre las implicaciones de la inteligencia artificial

Cómo se hizo el ’deepfake’ de Cruzcampo con Lola Flores.

3
Se lee en minutos
Eva Cantón
Eva Cantón

Periodista

ver +

Siempre ha habido trucos, prestidigitadores y versiones adulteradas de la realidad. El explorador norteamericano Frederick Cook intentó demostrar con archivos sonoros y fotografías que había llegado al Polo Norte en 1908, pero años después se supo que la documentación era falsa. Nunca había pisado el Polo. En 1939, Orson Welles relató la invasión extraterrestre de Estados Unidos en su adaptación radiofónica de ‘La guerra de los mundos’, aunque tuvo la precaución de avisar de que no era real.

Estos dos ejemplos del uso de las tecnologías para engañar (en el caso del explorador) o experimentar con la ficción (en el del director de cine) figuran en el artículo ‘Historia del ‘fake’ firmado por los profesores de la Facultad de Periodismo de la Universidad Complutense de Madrid Víctor Cerdán y Graciela Padilla. A ellos podría sumarse el deepfake que convierte a Lola Flores en la protagonista de un anuncio de Cruzcampo que ha avivado la polémica sobre las amenazas potenciales de la inteligencia artificial.

Del humor al delito

Un 'deepfake' -literalmente ‘mentira profunda’- no es más que un vídeo que superpone la cara de una persona en el cuerpo de otra. Su tecnología, recuerda Padilla, nació en 2005 en la plataforma Reddit –la misma que ha puesto en jaque a Wall Street con el movimiento de microinversores- y de su uso inicial, meramente humorístico, derivó hacia algo claramente delictivo en 2018 cuando actrices como Christina Aguilera, Selena Gómez, Ariana Grande o Scarlett Johanson fueron víctimas de una falsa pornografía. “Además del  ‘porno de la venganza’, lo que más miedo da es su uso en la desinformación política”, señala Padilla, que considera, en cambio, que el espot de Cruzcampo es un ejemplo positivo del empleo de ‘deepfake’.

El anuncio de Cruzcampo.

En este caso, la familia Flores mantuvo el control absoluto del discurso que pronuncia la artista fallecida, subraya Ramón Arteman, responsable de Metropolitana, empresa encargada de la posproducción del vídeo. "Es un mensaje que valora las diferencias y no se mete en camisa de once varas. Además, el anuncio enseña las cartas. Queda claro que esto nunca lo dijo Lola, aunque podía haberlo firmado” , indica.

Un abanico de posibilidades

Arteman augura que la técnica de los vídeos manipulados ha llegado para quedarse y “abre un abanico de posibilidades, para lo bueno y para lo malo”. “Debemos ser muy críticos cuando vemos cosas que no son coherentes. Si un líder político dice lo contrario de lo que ha dicho siempre, duda, puede ser un 'fake'”, agrega.

Roberto Fara, director creativo de  la agencia Ogilvy, ve pertinente el debate sobre tecnología y verdad aunque matiza que conviene diferenciar entre un guiño creativo y mentir.  “En el teatro se llama ‘contrato de ingenuidad’: el actor te dice que durante la siguiente hora va a ser Edipo y la audiencia se cree que es Edipo. Es importante ver el propósito que tienes con la tecnología”, ilustra. Además,  asegura que nunca se quiso “resucitar” a Lola Flores. “No era la intención. Está claro con el guiño de la palabra ‘empowerment’ que no hay engaño, que no es ella. Es un manifiesto generacional”.

Engaño indetectable

Para Antonio Diéguez, catedrático de Filosofía de la Ciencia en la Universidad de Málaga, que trabaja actualmente sobre los problemas sociales y éticos vinculados a la inteligencia artificial, lo preocupante es que la técnica se perfeccione hasta el punto de que el engaño sea indetectable. “Puede destruir vidas y ser un arma política de primera magnitud”, avisa. Y este es solo uno de los peligros que entraña su desarrollo sin demasiado control.

Noticias relacionadas

“A veces nos distraemos con peligros futuros e imaginamos robots inteligentes dominando el planeta. Sin embargo, muchos peligros están ya delante de nuestras narices, como la pérdida de privacidad cuando las tecnológicas usan nuestros datos para fines que desconocemos, el enorme poder económico y político de las tecnológicas o la fabricación de armas autónomas que no dependen de un ser humano para seleccionar víctimas”, advierte. 

Diéguez alerta de que se están convirtiendo en una verdadera amenaza para la democracia, y que cuando se habla de la tecnología se pone el énfasis en las cuestiones éticas, pero no conviene descuidar el aspecto político. “Habrá cambios sociales importantes y podemos encontrarnos en situaciones completamente distópicas”.