NÚMEROS DE LA RED SOCIAL

Facebook borró casi tantas cuentas falsas como usuarios verdaderos tiene

La red admite que aún conserva un 5% de cuentas de bots

mark zuckerberg

mark zuckerberg / periodico

El Periódico / Agencias

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La red social más usada del mundoFacebook, desactivó entre enero y marzo de este año 2.200 millones de cuentas falsas, en su mayoría gestionadas por robots, una cifra tan elevada que prácticamente iguala el número total de usuarios de la plataforma a nivel mundial, según un informe interno publicado este jueves.

Las cuentas detectadas como falsas fueron inmediatamente desactivadas, según explica la compañía, que también reconoce que el 5% de las cuentas globales que siguen activas son falsas, aunque no fueron detectadas a tiempo.  

En la tercera edición de su informe trimestral sobre el cumplimiento de las normas comunitarias, la empresa que dirige Mark Zuckerberg admitió que durante el trimestre enero-marzo 2019 ha conseguido eliminar el doble de cuentas falsas que en el trimestre anterior, que ya era cuatro veces más que la anterior. 

"La cantidad de cuentas que eliminamos se incrementó por los ataques automáticos llevados a cabo por actores malignos que buscan crear grandes volúmenes de cuentas al mismo tiempo", indicó al presentar el informe el vicepresidente de Facebook para Integridad, Guy Rosen.

Contra el discurso del odio

El directivo detalló que se desactivaron 1.200 millones de estas cuentas en el último trimestre de 2018 y 2.190 millones en el primero de 2019, lo que representa una cifra muy cercana a los 2.380 millones de usuarios activos mensuales legítimos que tiene Facebook, según los últimos datos disponibles.

En cuanto al llamado "discurso del odio" dirigido a grupos sociales específicos, la empresa de Menlo Park (California, EE.UU.) se felicitó por haber incrementado la cantidad de contenidos retirados de los 3,3 millones con que cerró el último trimestre de 2018 a los 4 millones en los primeros tres meses de 2019.

La firma explicó que de estos 4 millones de "mensajes de odio" publicados, un 65,4 % fueron retirados tras ser detectados por los sistemas de inteligencia artificial de la propia compañía antes de que nadie los denunciase, mientras que el resto fueron eliminados al recibir denuncias por parte de otros usuarios. También han incluido en la detección automática las apologías de las armas de fuego y las drogas, y han aumentado su detección automática de spam, propaganda terrorista y violencia, así como la eliminación de perfiles extremistas. 

Atentados en directo

"Las distintas culturas del mundo entienden la libertad de expresión de formas distintas. Es imposible construir un único sistema de moderación que funcione en todo el mundo", dijo en una rueda de prensa tras presentar los resultados el cofundador y consejero delegado de la empresa, Mark Zuckerberg.

La compañía se encuentra en el punto de mira con respecto a cómo gestiona la publicación de contenidos falsos, de carácter sexual, de odio o violentos por parte de usuarios después del tiroteo en dos mezquitas de Nueva Zelanda, el pasado marzo, que se saldó con la vida de 51 personas y que fue retransmitido en directo por Facebook Live.