Sexismo

'DeepNude', la app sexista que desnudaba mujeres

DeepNude

DeepNude / periodico

María Aragón

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

El uso de la Inteligencia Artificial está siendo cuestionado en los últimos meses por la proliferación de vídeos, aplicaciones y distintas herramientas que se utilizan para tratar de falsear la realidad.

En algunos casos forma parte del entretenimiento, como hacer que la Mona Lisa tenga movimiento. En otros, entra en juego la ética con la aplicación de esta tecnología para hacer que famosas actrices de Hollywood protagonicen un vídeo porno o, en este último caso, para desnudar a una mujer en tan solo un minuto. 

'DeepNude' era una aplicación que estaba en funcionamiento en los últimos meses. Tras salir a la luz su utilidad en artículos donde se cuestionaba su falta de moral y después de una descarga masiva con la publicación de su nombre en la web Motherboard, la aplicación ha cerrado. 

El funcionamiento era muy sencillo. Tenía un almacén de 10.000 imágenes de mujeres desnudas provenientes de servidores de Internet. A través de una simple fotografía, hacía una especie de Rayos-X en los que en apenas unos segundos asignaba pecho y vulva que pudieran ajustarse al cuerpo de determinada mujer. La imagen era realista pero completamente falsa. 

Lo hacía a través de un algoritmo que, según explicó su creador, solo pretendía ofrecer entretenimiento, no responsabilizándose del mal uso. "Es un código abierto de la Universidad de Berkeley", decía. "Una tecnología al alcance de cualquiera, así que no cambia mucho que exista DeepNude o no". 

La cuestión es que la aplicación solo funcionaba con mujeres, ya que al hacer una fotografía de un hombre también le intentaba generar pechos femeninos y vulva, por lo que ha sido tachada de sexista