Entrevista

Walter Quattrociocchi, data scientist: "No es el algoritmo, la toxicidad en las redes sociales es humana"

Este matemático, jefe del Centro de Ciencias de los Datos y Complejidad de la Sociedad de la Universidad de La Sapienza de Roma, es el autor de una rompedora investigación publicada en 'Nature' fruto del análisis de 500 millones de mensajes publicados durante 34 años en ocho plataformas

El matemático y 'data scientist' Walter Quattrociocchi.

El matemático y 'data scientist' Walter Quattrociocchi.

Irene Savio

Irene Savio

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

"También yo alguna vez he expresado toxicidad on line, pero esto mejor no lo escriba. Es que todos podemos hacerlo". Y al decir esto -medio en broma, medio en serio-, Walter Quattrociocchi (Marino, 1980), data scientist e investigador de la Universidad de La Sapienza de Roma, deja escapar una carcajada que a lo largo de la entrevista repetirá varias veces, tal vez hija de cierta desinhibición o del cinismo propio de los empíricos. Porque hoy, cuando hablamos con él, su nombre -junto al de una decenas de otros investigadores- ya resuena en la comunidad académica. La razón es que, buscando comprender el comportamiento humano en nuestra era, a través del análisis matemático y estadístico, este catedrático y jefe del Centro de Ciencias de los Datos y Complejidad de la Sociedad de su universidad podría haber descubierto una clave para entender la toxicidad en las redes sociales, uno de los aspectos más problemáticos de las interacciones en Internet. O al menos así lo sugiere su última y rompedora investigación, iniciada hace más de dos años y ahora publicada en la prestigiosa revista 'Nature', que incluso ha llamado la atención de la Comisión Europea.  

-Afirma que después de analizar 500 millones de mensajes publicados durante 34 años en ocho plataformas, llegó a la conclusión de que los tóxicos somos nosotros, no las redes o el algoritmo.

-Exacto. No es el algoritmo, somos nosotros. Esto lo cambia todo, ¿verdad? Sobre todo porque llevamos años diciendo que los que crean problemas son Twitter, Facebook, y eso no es lo que emerge de nuestro estudio. Hemos analizado mensajes escritos en épocas, contextos y sobre argumentos distintos… Basta con observar los blogs más antiguos, o los chats IRC; las dinámicas ahí eran las mismas. Esto nos tiene que hacer reflexionar sobre el hecho de que tal vez estamos planteando el problema de forma equivocada. Es el comportamiento humano el que persiste. 

"La toxicidad no ahuyenta a los usuarios; al contrario, en muchos casos esta agresividad aparece desde el inicio"

¿Por qué es así? 

Primero tenemos que decidir a qué llamamos toxicidad. En nuestro caso, hemos definido toxicidad como un comentario vulgar, irrespetuoso o poco razonable que probablemente haga que alguien abandone una discusión. Pero esto tampoco ha resultado cierto. Lo que hemos descubierto es que existe cierta resiliencia al discurso tóxico, es decir, la toxicidad no ahuyenta a los usuarios, no pone fin a sus discusiones; al contrario, en muchos casos esta agresividad aparece desde el inicio de las conversaciones.

Nos gusta. 

Sí, nos gusta, porque además en Internet eres consciente de que nadie te dará una hostia de verdad, no hay contacto físico. Todo son palabras, por lo que acaba siendo un medio para desahogarse. Esto, en cierto sentido, es positivo, o al menos, más positivo que la agresividad física, pero aún así ha sido una sorpresa descubrir que la toxicidad por sí sola no es un factor que interrumpe la interacción.

"En Internet eres consciente de que nadie te dará una hostia de verdad, no hay contacto físico"

Su estudio también afirma que la toxicidad no aumenta en las conversaciones más largas.

Efectivamente. Cuanto más comentarios hay, menos tóxicos hay.

¿No cree que corren el riesgo de exculpar a una industria rentable y con todo tipo de intereses?

No estoy exculpando a nadie; mi enfoque es neutral. De hecho, uno de nuestros objetivos era distinguir qué comportamiento es humano y cuál se debe al factor algorítmico. El resultado es que, en un estudio realizado en diferentes plataformas, la toxicidad no varía, se mantiene estable. Creo que esto es útil para buscar soluciones, lo que no significa que no haya toxicidad en las plataformas. 

"No es cierto que haya aumentado la toxicidad en los últimos años"

¿Entonces hay o no un aumento de toxicidad en estos últimos años?

No, esto tampoco es cierto. En términos estadísticos ha habido algunas fluctuaciones en los años, pero han sido mínimas. 

¿Algunos perfiles son más propensos a la toxicidad?

Si lo que pregunta es si hay una propensión mayor entre mujeres u hombres, o en algunas generaciones, la respuesta es no. Ni existe eso del 'hater' irredento. Por supuesto, si te encuentras 'on line' con alguien que tiene una opinión diferente sobre un tema que te interesa, la probabilidad de comentarios tóxicos aumenta. Pero eso también es por el tribalismo, y lo hemos detectado ya en otros estudios hace años.

"El algoritmo sí favorece las tribus, usuarios que comparten un discurso"

¿Tribalismo? 

Sí. En las redes se forman tribus que construyen un discurso compartido. Y esto sí es favorecido por el algoritmo, cuyo objetivo principal es mantener a los usuarios en la plataforma el mayor tiempo posible. Por eso, el algoritmo fomenta las interacciones con personas y contenido con los que ya has interactuado, crendo 'cámaras de eco'. Si te gusta el Real Madrid, verás más contenido relacionado con el Real Madrid. Así es como se forman estas tribus. Los antivacunas se agrupan con los antivacunas, los provacunas con los provacunas, los prorrusos con los prorrusos, los antirrusos con los antirrusos, etcétera.

Decía que las grandes empresas no son culpables. Sin embargo, ¿pueden hacer algo para evitar esta toxicidad?

Podrían financiar investigaciones que estudien cómo explicar a las personas qué herramientas pueden usar para evitar los comentarios tóxicos y actuar con moderación. Pero primero, es necesario comprender que el factor humano es central.

Si esta realidad ha persistido durante tanto tiempo, ¿no es utópico pensar que tiene solución?

No. Los humanos aprendemos, no somos máquinas; por eso podemos tomar conciencia de cómo nos comportamos 'on line' y cómo deberíamos comportarnos. También lo he mencionado en un reciente encuentro con la Comisión Europea.

¿La Comisión Europea?

Sí. El departamento de Justicia se ha interesado en el estudio y me ha convocado. Iré en junio. Aunque todavía hay muchas cosas por descubrir. Por ejemplo, qué impacto tiene esto en el mundo real. Otro asunto que me obsesiona es la polarización, un comportamiento que va muy unido al tóxico y que el sentido común, aunque aún no exista el análisis científico, sugiere que podría estar asociado al crecimiento de la desigualdad. Estudiar a las sociedades a través de los datos es un recurso muy valioso.

Suscríbete para seguir leyendo