ASUNTOS PROPIOS

Frances Haugen, 'garganta profunda' de Facebook: "Fingen que no existo"

La exempleada de Zuckerberg fotografió 22.000 documentos de la compañía, los llevó al Senado de EEUU y cuenta la trama de la operación en 'La verdad sobre Facebook' 

Frances Hauger contraportada

Frances Hauger contraportada / Stephanie LeCocq / Efe

Núria Navarro

Núria Navarro

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La exejecutiva de Facebook Frances Haugen (Iowa, EEUU, 1984) entró el 5 de octubre de 2021 en el Senado de EEUU para decir alto y claro que los productos del gigante tecnológico "perjudican a los niños, inflaman la división política y debilitan nuestra democracia". 'The Wall Street Journal' había filtrado varios de los documentos que se llevó de la compañía y Mark Zuckerberg vio cómo las acciones se desplomaban. Explica las tripas de su decisión en 'La verdad sobre Facebook' (Deusto). 

¿Es una heroína o una insensata?

Solo soy un ser humano. 

Robó 22.000 documentos de una empresa con 2.900 millones de usuarios.

Mi propósito era explicar, con claridad y contexto, el significado de esos papeles a los funcionarios del Gobierno, documentar por qué Facebook ponía al mundo en peligro.

"Si hubiera trabajado en Twitter, seguramente habría recibido amenazas. Facebook teme a la mala prensa"

En peligro se puso usted. ¿Cuántas amenazas ha recibido?

Ninguna. Facebook teme a la mala prensa. Así que fingen que no existo. Ni una palabra sobre mi libro. Si en vez de Facebook hubiera trabajado en Twitter, seguramente habría recibido amenazas, porque Elon Musk tiene miles de seguidores fanáticos. Pero nadie está del lado de Zuckerberg, lo que me ha granjeado apoyos. 

¿Musk es más nocivo que Zuckerberg?

Elon ha hecho cosas que me emocionan, como publicar el algoritmo, pero nos ha vuelto menos seguros: cobra por algunos accesos a su interfaz de programación de aplicaciones (API), lo que significa que muchos investigadores que nos mantenían a salvo no pueden pagar por los datos. Y despidió al 75% de los empleados de Twitter sin afrontar las consecuencias, aunque con un cierto contrato social. Zuckerberg despidió a 20.000 y dijo: "Si Elon demostró que se puede, está bien". ¡Y NO está bien!

"Era la mayor de los empleados. Podía hacer lo que era correcto"

Usted entró muy animada en Facebook.

Puse como condición combatir las 'fake news'. Se avecinaban las elecciones de 2020 y entré como jefa de producto del departamento de Integridad Cívica. Pero pronto vi que era un 'florero'. A la mínima caída de tráfico, los accionistas planteaban preguntas incómodas con las que no estaban dispuestos a lidiar. Se agravaban la polarización, las mentiras y las amenazas, y tras las elecciones, disolvieron el equipo. Yo era la mayor de los empleados. Podía hacer lo que era correcto.

"En mi decisión influyó el haber vivido experiencias en las que sentí que me asomaba al abismo"

Con la veteranía no basta...

Quizá influyó el haber vivido experiencias en las que sentí que me asomaba al abismo. Sabía qué era perder la salud, el trabajo, la casa, la pareja, todo a la vez. Fui capaz de juntar los pedazos y eso me dio un cierto grado de libertad para seguir a mi corazón. Y cuando llegó el covid, me confiné en casa de mis padres y dispuse de tiempo para pensar. "¿Hay otra manera de ser feliz?", me pregunté. Facebook había seguido durante cuatro años la idea de que "si quieres cambiar el mundo, tienes que elegir una vanguardia". Pero eso ya no era así.

"El aparato de Facebook es imperial"

¿Cómo era?

Yo venía de Silicon Valley, donde las fronteras al mundo exterior eran porosas y había montones de comités que discutían las reglas, pero el aparato de Facebook es imperial y moldea por completo nuestra percepción del mundo a través de un algoritmo que solo conoce un puñado de ejecutivos. Decide la información a la que accedemos, y la peor parte se la llevan las zonas más vulnerables del mundo, donde se hablan idiomas fuera de los 50 más usados y no tienen plataformas propias.

"Los países más vulnerables utilizan un algoritmo de hace 5 años, más peligroso, que potencia contenidos extremos"

¿Por qué?

Utilizan un algoritmo de Facebook de hace cinco años, la versión más peligrosa. Priorizan contenidos en función de su capacidad para generar compromiso, lo que aumenta los sesgos y tiende a una distribución desproporcionada del contenido más extremo y polarizador. Facebook tiene a la Humanidad en sus manos.

TikTok gana la partida entre los jóvenes.

¡Me preocupa mucho! Los problemas que denuncio de Facebook son aún más pronunciados. Fue diseñado para que pudiera funcionar en China. De modo que si eres visiblemente gay o discapacitado, no te dejaban volverte viral. Es decir, la hiperviralidad agrava los sesgos. El problema es que cada vez más personas se informan a través de TikTok y en 2022 ya vimos muertes a gran escala en las elecciones de Kenia. Gente de TikTok me confesó que no había moderadores que hablaran suajili.

"Le recuerdo a la gente que cuando ocurrió la primavera árabe no había algoritmos en las noticias"

¿No siente que, de alguna manera, ha participado en la construcción del monstruo?

Le recuerdo a la gente que cuando ocurrió la primavera árabe no había algoritmos en las noticias. Debemos tener plataformas que puedan ser socialmente transformadoras. Diseñar redes sociales (y la inteligencia artificial) más transparentes. Tener acceso a los algoritmos de recomendaciones y modificar lo que no nos interesa. Hoy sabemos que los cigarrillos causan cáncer, que los cinturones de seguridad salvan vidas, que la lactancia materna es buena para los bebés. Dentro de unos años se verá esta época como una aberración histórica.

Suscríbete para seguir leyendo