29 oct 2020

Ir a contenido

La dictadura del algoritmo

Así utilizan las plataformas tus datos para predecir lo que harás

El modelo económico de las grandes tecnológicas se basa en algoritmos inteligentes capaces de calcular nuestro comportamiento futuro

Empresas y políticos comercializan con nuestra privacidad para vendernos mejor sus productos e ideas y condicionar nuestras decisiones

Carles Planas Bou

Centro de almacenamiento datos de Google en Iowa, Estados Unidos.

Centro de almacenamiento datos de Google en Iowa, Estados Unidos.

“La privacidad ya no es una norma social”. En un alarde de sinceridad, Mark Zuckerberg resumió en 2013 el modelo de negocio de Facebook y otras plataformas digitales omnipresentes que lo saben todo de nosotros, pero de las que a penas empezamos a conocer todo lo que esconden bajo la superficie. ¿Cual es ese modelo de negocio y qué parte juega nuestra privacidad en ello?

El imperio de las redes sociales se construye sobre una premisa relativamente sencilla: la extracción de datos personales. La información que pones en tu perfil, las fotos que cuelgas, la geolocalización de tu móvil, las compras que haces, las palabras que buscas, los mensajes que mandas e incluso aquellos que terminas borrando sirven para engordar los informes personales que las plataformas guardan de ti para analizar tu comportamiento.

“Te ofrecen una infraestructura y a cambio procesan y explotan toda la información que la recorre”, señala Marta Peirano, periodista e investigadora de estos sistemas. Por primera vez en la historia, el Big Data cruza millones de datos aparentemente insignificantes para conocer el comportamiento humano.

Algoritmos inteligentes

La clave de su éxito es el algoritmo, códigos computacionales que sirviéndose de la Inteligencia Artificial procesan miles de millones de datos para crear estadísticas y patrones sobre tu comportamiento y con el que pueden inferir qué harás en el futuro. El algoritmo es la fórmula de la Coca-Cola del llamado capitalismo de plataformas, una serie de instrucciones opacas que saben categorizar un volumen oceánico de datos personales y con ello recomendarte cosas que te influyan. Un ente etéreo capaz de conocernos mejor que nosotros mismos.

“Son matrices gigantes, millones de filas y columnas con datos y ya ni los programadores comprenden cómo operan exactamente”, advertía ya el 2017 la tecnosocióloga Zeynep Tufekci. “Funcionan con una enorme cantidad de datos, así que fomentan una vigilancia profunda sobre todos nosotros para que los algoritmos de aprendizaje sean más completos”, añadía. Un modelo económico que ha llevado a Google a rastrear a sus usuarios incluso cuando navegaban en modo incógnito, algo por lo que afronta una demanda de más de 5.000 millones de euros. No es solo los datos que cedes, sino lo que se infiere de ellos. Cuantos más usuarios y actividad haya, más preciso será su conocimiento y sus predicciones sobre nosotros. "El problema no es que existan las redes sociales, es que detrás hay una agenda económica basada en la extracción de datos", señalaba la doctora en sociología Liliana Arroyo en acto de la Biennal de Pensament de Barcelona.

Todos hemos vivido la experiencia de ser perseguidos en la web por anuncios que reproducen lo que hemos leído en un artículo o lo que hemos comentado con amigos por Whatsapp, desde una esterilla para hacer yoga en casa a los mejores hoteles en Menorca. Eso es a causa del algoritmo. Cuando Instagram nos recomienda cuentas divertidas, Youtube nos lleva a vídeos interesantes y Spotify nos descubre artistas que no conocíamos es porque sus algoritmos funcionan. Su precisión para conocer nuestros gustos es lo que nos seduce, pero también lo que nos retiene.

Revolución de poder

Los algoritmos han supuesto una revolución comercial. Esos mecanismos inteligentes aprenden de toda la información que procesan, lo que les permite llegar donde el ojo humano no ve, localizando clientes potenciales que antes estaban escondidos. Eso puede servir para que un supermercado recomiende productos sin gluten a gente con intolerancia que vive cerca, pero también para personalizar anuncios políticos. Así lo hizo en 2016 la campaña presidencial de Donald Trump, que disparó mensajes racistas y bulos contra su rival hacia los electores más susceptibles de adoptarlos como propios. Al algoritmo no le hace falta que hayas expresado tu posición política abiertamente, se sirve de tu historial para conocerlo con más detalle.

Sin embargo, el algoritmo no es neutral. “Si la base de datos tienen sesgos racistas o machistas eso permea en la tecnología”, advierte Peirano. Eso ha llevado a múltiples casos de impacto desigual en aquellos sectores sociales más vulnerables o a que las recomendaciones se desvíen hacia contenidos cada vez más extremos, impulsando la radicalización. Aún así, cuando son cazadas con malas prácticas esas grandes plataformas suelen culpar a un “error” del algoritmo, lo que la matemática y científica de datos Cathy O’Neil apodó ‘Math washing’. Un cabeza de turco abstracto que evita asumir responsabilidades.

De Amazon a Google, de Uber TikTok, todas esas plataformas guardan celosamente unos algoritmos cuyo código solo se conoce a través de las filtraciones de ingenieros y de investigaciones periodísticas. “Podemos analizarlo a través de las consecuencias que tiene en nuestra atención, en nuestra plasticidad cerebral, en nuestra democracia y en la polarización social”, explica Peirano, autora de ‘El enemigo conoce el sistema’. “El servicio que te dan puede ser muy bueno, pero es a costa de que ellos lo decidan todo”, concluye.