Sin consentimiento
"Cualquier chica puede ser expuesta": los desnudos falsos creados por inteligencia artificial se disparan

Olvidarse del móvil unas horas
En junio de 2019, el medio estadounidense Vice denunció la existencia de DeepNude, una "horrible" aplicación que podía desnudar a cualquier mujer. El usuario sólo tenía que colgar una foto de la víctima, pagar 50 dólares y esperar a que la inteligencia artificial (IA) del programa se encargase de quitarle la ropa. Los resultados eran tan creíbles que su uso se disparó, pero el alud de críticas recibidas obligó a sus creadores a cerrar el proyecto a las pocas horas.
Cuatro años después, el problema es mucho mayor. DeepNude desapareció, pero en su lugar han surgido decenas de otras 'apps' similares. Una de esas es la que ha utilizado un grupo de niños de Badajoz para desnudar sin consentimiento a sus compañeras de colegio, menores de edad. ""La imagen es súper realista y, además de viralizarse entre ellos, las pueden haber subido a sitios de internet tipo 'Onlyfans'", ha explicado a EL PERIÓDICO Miriam Al Adib, madre de una de las víctimas.
Aunque este caso ya ha sido denunciado ante la Policía Nacional, ilustra un nuevo método de violencia digital contra las mujeres cada vez más popular. Un simple vistazo a Google Trends es suficiente para constatar como las búsquedas sobre esas aplicaciones se han disparado durante el último año. "Es un fenómeno que empieza a preocupar muchísimo porque no hay ningún tipo de regulación sobre ello y es muy difícil tanto cuantificar el uso de imágenes que circulan como identificar a quienes lo hacen", explica Eva Cruells, coordinadora de la línea de atención de Fembloc, una iniciativa feminista contra las violencias machistas digitales.
De niñas a famosas
En un principio, este tipo de contenidos manipulados —conocidos como 'deepfakes'— apuntaban principalmente contra mujeres famosas. Los rostros de Gal Gadot, Jennifer Lawrence o Scarlett Johansson eran recortados e incrustados en escenas pornográficas que después eran colgadas en páginas para adultos. En enero de 2021 se habían detectado más de 82.000 de esos vídeos ilícitos, según un recuento de la compañía Sensity. Aunque es muy difícil de contabilizar, las cifras actuales serían muy superiores.
Ese auge se debe a la normalización del mercado de la IA, en plena expansión. Es en ese contexto que han florecido multitud de 'apps' que intentan hacerse un hueco a costa de desnudar a chicas sin consentimiento. Su uso es cada vez más sencillo y sus resultados, más creíbles. Esa suma de factores ha facilitado que está tecnología pueda ser usada de forma problemática por todo tipo de públicos.
"El mensaje es que cualquier chica puede ser expuesta, es un señalamiento muy claro sobre la sexualidad de muchas adolescentes".
coordinadora de la línea de atención de Fembloc
Los personajes públicos, como Rosalía o la 'influencer' Laura Escanes, siguen estando en la diana de esos ataques. Sin embargo, la facilidad de acceso a esos programas está propagando su impacto a todo tipo de mujeres, también niñas, como muestra el caso de Badajoz. "El mensaje es que cualquier chica puede ser expuesta, es un señalamiento muy claro sobre la sexualidad de muchas adolescentes", añade Cruells.
Ansiedad y baja autoestima
Esta forma de violencia digital de género puede golpear la salud mental de las víctimas. Un 54% de las mujeres que han sufrido acoso en internet han experimentado ataques de pánico, ansiedad o estrés, mientras que un 42% de las jóvenes han mostrado estrés emocional, baja autoestima y pérdida de autoconfianza, según un estudio del Observatorio Nacional de Tecnología y Sociedad (ONTSI) del año pasado. "Así es sentirse violado, así es sentirse explotado", denunció en enero la 'streamer' QTCinderella, víctima de los 'deepfakes'.
Ir a buscar clout faltando el respeto y sexualizando a alguien es un tipo d violencia y da asco pero hacerlo por 4 plays de + lo q da es pena
— R O S A L Í A (@rosalia) 23 de mayo de 2023
Aunque se trate de una simulación, la distribución de contenidos sexuales de esta índole es un delito. Incluso podría tratarse de pornografía infantil si afecta a una menor. Es por eso que desde Fembloc aseguran que la denuncia pública es una buena práctica para exponer el impacto que tiene y para "apelar al sentido común". "Hay que sensibilizar mucho (...) y generar una comunidad que rechace este tipo de agresión", añade Cruells.
Recrear imágenes sexuales falsas es ilegal, pero aun así es muy fácil encontrar este tipo de contenidos en internet. En una búsqueda rápida en Google aparecen todo tipo de enlaces, desde los que recomiendan las mejores 'apps' de IA para crear desnudos a portales donde se cuelgan.
- Pensiones La paga extra de Navidad llegará en 2023 con retraso a pensionistas y jubilados
- Pensionistas Esta será la edad para jubilarse a partir del 1 de enero de 2024
- Seguros Sociales La Seguridad Social lanza un mensaje a los despistados: “Último día”
- Sin rastro desde el 5 de noviembre de 2013 La familia de Cristina, desaparecida hace diez años, descubre que alguien cobra una subvención en su nombre
- Moneda Sorpresa con los billetes de 500 euros en España
- Como dice el pícaro Bordalás: "Esto es fútbol, papá"
- Debate de política general Un Govern que no puede bailar solo
- Muestra musical en el Fòrum De Alizzz a Los Planetas: clamor pop en el Festival·B
- Baloncesto El Real Madrid asalta el Nou Congost en un partido muy igualado
- Primera plana de la edición impresa La portada de EL PERIÓDICO del 30 de septiembre de 2023