La irrupción de la 'posverdad'

Facebook o Fakebook

Las redes sociales nos están acostumbrando a la desintermediación informativa al recibir los contenidos

Trump y Clinton, durante el tercer y último debate antes de las elecciones, este miércoles en Las Vegas.

Trump y Clinton, durante el tercer y último debate antes de las elecciones, este miércoles en Las Vegas. / JDA DP SM

ANTONI GUTIÉRREZ-RUBÍ

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

El riesgo, y la amenaza, de vivir atrapados por un algoritmo es real. El placebo digital que generan las burbujas informativas es tan sedante como artificial. Y peligroso. Alimenta nuestros prejuicios, ofreciendo contenidos que han sido identificados como convenientes -por complacientes y dóciles- para nuestras convicciones. Secuestrada nuestra capacidad de elección consciente, nos sumimos en un entorno de autoafirmación, cada vez más excluyente y reverberante. El eco se apodera de la conversación. Y lo que escuchamos no son otras voces -otros argumentos, otros datos, otras ideas- sino nuestra propia voz.

En la pasada campaña electoral norteamericana vivimos, intensamente, en una burbuja de contenidos generada automáticamente por algoritmos que procesan 'big data' electoral. La robotización de la comunicación política se ha consolidado de manera extraordinaria. De los 'trolls' a los 'bots'. Lo importante era alimentar el 'engagement' (la actividad e interacción constante del internauta con la oferta de contenidos) de los electores y activistas digitales, incluyendo noticias equívocas, inexactas... El hecho de que la difusión de noticias falsas en Facebook generara reafirmación agitada entre los seguidores de Donald Trump, por ejemplo, fue el resultado lógico de la aplicación de las técnicas denominadas 'black hat' (posicionamiento artificial en redes para conseguir relevancia e influencia).

BURBUJAS DE INFORMACIÓN QUE CONTAMINAN

Además, hay que tener en cuenta otro dato importante: casi el 50 % de los norteamericanos se informaron sobre las elecciones presidenciales a través de Facebook. Es un efecto directo de la desintermediación informativa a la que las redes sociales nos están acostumbrando al recibir los contenidos. Estas burbujas de información o 'filter bubble' influencian a los usuarios, porque les contaminan. Acaban ofreciéndoles contenidos en función de sus preferencias y las de sus contactos. Esta situación agrava el aislamiento informativo, e irrumpe la 'posverdad' (palabra del año para el Diccionario Oxford), en la que las informaciones rigurosas tienen menos influencia que las creencias y las emociones personales. El prejuicio es más reconfortante que el juicio. Facebook ya realizó pruebas alterando el suministro de noticias en determinados usuarios para comprobar si al recibir noticias positivas o negativas, ellos también cambiaban su estado de ánimo. El resultado fue que sí, que los usuarios son influenciables. Lo mismo sucedió con The Guardian, que realizó un experimento con varios lectores. El resultado fue alarmante.

Las redes, sobre todo Facebook, están empezando a reaccionar por miedo reputacional. En el mes de octubre, Facebook y Twitter se unieron a la iniciativa de Google, First Draft Coalition, con el objetivo de combatir la difusión de noticias falsas. Y, días antes de las elecciones estadounidenses, Facebook implementó un sistema de suspensión automática para evitar la difusión de dichos contenidos. Pero esa capacidad discrecional también puede servir para otras prácticas como la elaboración de listas negras, las sospechas de partidismo y, en definitiva, la ruptura de la neutralidad de la red en pro de la veracidad informativa. En esta línea, 'The New York Times' ha desvelado que Facebook estaría probando una herramienta para ocultar determinadas informaciones por zonas geográficas, con el objetivo de contentar al régimen chino.

LA TARTA DE LA INVERSIÓN PUBLICITARIA SEGMENTADA

Siendo Facebook un medio de referencia para muchos usuarios, y viendo la posible influencia que podía haber tenido en el resultado de las elecciones americanas, muchos usuarios realizaron críticas sobre la permisividad en la publicación de estas noticias. A raíz de dichas críticas, Mark Zuckerberg publicó una nota en la que exponía siete medidas para tratar de atajar el problema. Estas medidas proponen reforzar los algoritmos para la detección de noticias falsas, facilitar la denuncia por parte de los usuarios, ofrecer informes sobre ellas, poder calificarlas como dudosas, dar más visibilidad a contenidos de referencia y atacar los ingresos que sean generados por informaciones falsas. Pero, la alteración de los algoritmos podría modificar una de las principales fuentes de ingresos de Facebook: la enorme tarta de la inversión publicitaria segmentada. ¿Cómo resolverán este conflicto de intereses?

Estamos en un momento crucial. Prevenirnos del algoritmo que nos seduce y reduce, porque nos convierte en adictos de nuestros propios prejuicios, es clave si queremos  una sociedad más conectada pero más libre.