Ir a contenido

COLABORACIÓN SILICON VALLEY

¿Desierto o desnudo? La inteligencia artificial aún no los sabe distinguir

La Policía londinense trabaja en un 'software' para rastrear fotos de delitos de abusos sexuales, pero aún comete fallos

El Periódico

La Policía londinense utiliza un software para buscar fotos porno delictivas, pero aún no sabe distinguir un desierto de un desnudo.

La Policía londinense utiliza un software para buscar fotos porno delictivas, pero aún no sabe distinguir un desierto de un desnudo.

La policía londinense confía en tener lista una inteligencia artificial (IA) capaz de detectar imágenes pornográficas y de abusos sexuales a niños en un par de años. Para ello, están desarrollando un software de reconocimiento de fotos. Sin embargo, aún tiene que mejorar mucho, ya que esta IA aún no es capaz de diferenciar entre la foto de un desierto y un desnudo

Tal como ha informado el rotativo británico The Telegraph, el departamento forense digital de la Policía Metropolitana de Londres analizó el año pasado 53.000 dispositivos en busca de pruebas incriminatorias, pero el programa aún no es lo suficientemente sofisticado como para detectar toda clase de archivos pornográficos. "Tenemos que clasificar las imágenes porno para diferentes sentencias, y este trabajo ha de realizarse por personas de momento", ha informado Mark Stokes, jefe forense digital del departamento. 

No es piel, es arena

Por ahora el software que utiliza la policía ya distingue imágenes de drogas, armas y dinero. Pero cuando analiza desnudos, falla. "A veces, cuando se trata de un desierto, el programa cree que es una imagen porno", ha detallado Stokes.

El jefe policial asegura que revisar los dispositivos en busca de fotos delictivas es "mentalmente agotador", por lo que confía en poder "descargar" este trabajo en "máquinas insensibles". 

Stokes ha explicado a The Telegraph que su departamento está trabajando con "proveedores de Silicon Valley" para ayudar a entrenar a la IA. 

Sigue a Extra en Facebook