Entender + con la ciencia

¿Qué peligros entrañan realmente los 'deepfakes'?

  • El peor peligro de los videos y audios manipulados informáticamente es la duda que siembran sobre los documentos auténticos

  • Actualmente, el mayor impacto de esta tecnología es el acoso a las mujeres, con la inserción de su cara en vídeos pornográficos.

Mark Zuckerberg, en el vídeo ’deepfake’ que se ha publicado en Instagram.

Mark Zuckerberg, en el vídeo ’deepfake’ que se ha publicado en Instagram. / BILL POSTERS / INSTAGRAM

4
Se lee en minutos
Michele Catanzaro
Michele Catanzaro

Periodista

ver +

Videos, fotos y audios ya no son pruebas incontrovertibles. Los deepfakes manipulan casi perfectamente el aspecto y la voz de una persona por medio de la inteligencia artificial. Su mayor impacto es el acoso a mujeres, con la inserción de su cara en vídeos pornográficos. En política, su peor consecuencia podría ser sembrar dudas sobre documentos que sí son auténticos. 

En octubre de 2020, diversas personas murieron en choques con la policía en Lagos (Nigeria). Se presentaron ante un tribunal vídeos que incriminaban a los agentes, pero la policía se defendió alegando que eran manipulados. La carga de demostrar que no lo eran pasó a las víctimas. 

Hay una tendencia creciente a decir que algo es un deepfake cuando es real.

Este episodio pone de manifiesto el peligro más sutil de los deepfakes (ultrafalsos). “Hay una tendencia creciente a decir que algo es un deepfake cuando es real. Eso genera una atmósfera de que no puedes creer lo que ves”, comenta Sam Gregory, director de Witness, una organización que usa vídeos para defender los derechos humanos.

¿Qué es el deepfake?

La tecnología del deepfake usa la inteligencia artificial para generar, por ejemplo, vídeos que funden la cara de una persona con el cuerpo de otra, audios con una voz clonada que dice palabras que nunca se pronunciaron, etcétera.

“La idea es antigua, pero ahora hay potencia de cálculo y cantidad de datos suficientes”, afirma Dimosthenis Karatzas, director del Computer Vision Center de la Universitat Autònoma de Barcelona, que ha organizado recientemente un debate sobre el tema. 

Generar datos artificiales tiene también aplicaciones constructivas.

Entre las técnicas más empleadas están las Generative Adversarial Networks (GANs). Estas producen datos sintéticos y se los plantean, junto con datos reales, a un 'discriminador', que distingue los primeros de los segundos. Por medio de correcciones sucesivas, el sistema es entrenado de tal manera que a final el discriminador ya casi no distingue los datos ficticios de los reales.

Generar imágenes u otros datos artificiales tiene muchas aplicaciones. Por ejemplo, los filtros 'antispam' se pueden entrenar con gran cantidad de correos basura artificiales. O los coches sin conductor, con bases de datos de imágenes sintéticas de accidentes. 

La poetisa británica Helen Mort, cuya cara fue insertada en una gran cantidad de videos sexuales sin su consentimiento, por medio de la tecnología deepfake.

/ El Periódico

¿Qué impacto tiene?

• Acoso

Casi todo el deepfake que circula en internet representa imágenes sexuales con caras insertadas sin consentimiento, según un estudio reciente. Vídeos de este tipo se emplearon para acosar a la periodista india Rana Ayyub, entre otras. 

• Falsificación en política

Diversos deepfakes de políticos se han vuelto virales en los últimos años. No obstante, “los deepfakes no parecen tener un efecto superior al resto de desinformación”, observa Soubhik Barari, investigador en ciencias políticas de la Universidad de Harvard que ha experimentado con voluntarios expuestos a falsificaciones. Los shallowfakes (falsificaciones superficiales) usan técnicas tan sencillas como atribuir un video impactante a un lugar y tiempo distintos a los reales, cortar secuencias para alterar su sentido, o emplear actores. “Fabricar un vídeo tradicional puede ser más efectivo que hacer un deepfake”, observa Barari.

La retórica alrededor del deepfake es tan peligrosa como la tecnología en si.

• Sembrar la duda

Negar la veracidad de cualquier imagen es la consecuencia más nefasta. “Hay una presión creciente sobre periodistas y defensores de derechos humanos para que demuestren que aportan material auténtico. Rápidamente se usa el argumento del deepfake para decir que ningún vídeo es demostrablemente cierto”, alerta Gregory. “La retórica alrededor de esta tecnología es tan peligrosa como la tecnología en sí”, añade.

Cómo se hizo el ’deepfake’ de Cruzcampo con Lola Flores.

¿Cómo se puede combatir?

• Detectar

“Es importante fijarse en el tono de piel, si los movimientos de la cara concuerdan con los del cuerpo y también analizar críticamente la fuente y el mensaje”, explica Ruth García, técnico de ciberseguridad para ciudadanos del Instituto Nacional de Ciberseguridad (Incibe). En cuanto a la detección informática, esa depende del algoritmo empleado: por ejemplo, si se falsifica el movimiento de la boca, se puede detectar una discontinuidad alrededor de los labios. “Es una carrera, porque cada día salen nuevas maneras de hacer deepfakes”, afirma Karatzas. El enfoque más prometedor, perseguido por varios consorcios internacionales, consiste en certificar el origen de cada imagen, por medio de metadatos que permitan seguir las modificaciones que ha sufrido.  

El hábito de consumir noticias auténticas vacuna contra la desinformación.

• Proteger a las víctimas

El esfuerzo legislativo debería ir sobre todo en la dirección de proteger las personas damnificadas, que en su mayoría son mujeres, según diversos expertos consultados. 

Noticias relacionadas

• Medios fuertes y ciudadanía formada

En los experimentos de Barari, los voluntarios más capaces de reconocer deepfakes eran los que más sabían de política y tecnología. “El hábito de consumir noticias auténticas vacuna contra la desinformación”, resume Barari. Este experto alerta de que esa tecnología podría llegar a hacer más daño sobre todo en sitios donde el sistema de medios es más débil.