Quejas de sus usuarios

Apple retrasa la búsqueda de pornografía infantil entre sus clientes

El CEO de Apple, Tim Cook, muestra el iPhone 12 Pro en la sede de la compañía, en Cupertino, California, EEUU, el pasado 13 de octubre de 2020. 

El CEO de Apple, Tim Cook, muestra el iPhone 12 Pro en la sede de la compañía, en Cupertino, California, EEUU, el pasado 13 de octubre de 2020.  / APPLE INC. / BROOKS KRAFT

1
Se lee en minutos
El Periódico

Apple ha anunciado este viernes que retrasará el lanzamiento de sus nuevas y controvertidas herramientas de protección contra la pornografía infantil, acusadas por algunos de socavar la privacidad de sus dispositivos y servicios.

El gigante de Silicon Valley había dicho el mes pasado que los iPhones y iPads pronto comenzarían a detectar imágenes que contengan abuso sexual infantil y a denunciarlas a medida que se cargan en su almacenamiento en línea (iCloud), al menos en Estados Unidos.

Sin embargo, las asociaciones de derechos digitales protestaron porque consideraron que eso suponía que los ajustes en los sistemas operativos de Apple crean una "puerta trasera" potencial en los dispositivos que podrían ser explotados por gobiernos u otras organizaciones. De hecho, Apple se erigió en abanderada de la privacidad de sus clientes con el caso del terrorista de la matanza de San Bernardino (California), cuando se negó a dar al FBI las claves del iPhone del principal sospechoso. Al final, la compañía acabó colaborando antes de ser acusada de delito federal y después que el FBI recurriera a una empresa israelí.

"Realizar mejoras"

"En base a comentarios de los clientes, grupos de defensa, investigadores y otros, decidimos tomarnos más tiempo en los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características tan importantes para la seguridad de los niños", dijo la compañía en un comunicado.

La nueva tecnología permite al software que alimenta los dispositivos móviles de Apple comparar las fotos almacenadas en el teléfono de un usuario con una base de datos de imágenes de abuso sexual infantil proporcionadas por organizaciones de seguridad, y luego marcar las imágenes a medida que se cargan en el almacenamiento iCloud en línea de Apple, según la compañía.

Noticias relacionadas

El sistema, en caso de que entre en uso, sería "impulsado por una tecnología criptográfica" para determinar "si hay una coincidencia sin revelar el resultado", a menos que se descubra que la imagen contiene abuso sexual infantil.

Otras compañías, como Microsoft, Facebook o Google, ya disponen de un software que ayuda a los policías de todo el mundo a detectar imágenes y palabras vinculadas a abusos a menores. Y la Comisión Europea autorizó su uso.