Los robots se apoderan de internet

CARMEN JANÉ / BARCELONA

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Internet ya no es mayoritariamente humana. Ordenadores con programas creados para acceder de modo automático a páginas web (llamados 'bots', aféresis o supresión de varios sonidos de robots) suponen ya la mayoría del tráfico que se mueve por la Word Wide Web. Según un estudio de la consultora Incapsula, las transacciones automatizadas representan el 56% del total de las transacciones en internet frente al 44% que realizan las personas.

Esta internet zombi cubre desde tráfico que se considera bueno, como los rastreos que realizan los buscadores para añadir páginas a sus índices o las webs para añadir información de otras páginas (el protocolo RSS que recopila últimas entradas o los flujos de conversaciones en Twitter), hasta el malo, el que generan ordenadores que envían virus y correos de 'spam' o atacan a otras máquinas, como el ataque a Sony de estas Navidades. La pésima noticia es que los robots malos ganan a los buenos porque suponen el 29% de todo el tráfico, mientras que los buenos se quedan en el 27%.

SUPLANTAR A PERSONAS

Lo más numeroso dentro del tráfico malo son los programas suplantadores (22%), robots que simulan ser personas para colar comentarios en webs y blogs. Y estos son cada vez más sofisticados y dañinos porque no solo pueden afectar a la posición de la página en Google o la experiencia del usuario durante la lectura, sino reventar literalmente la propia web.

«Hay un tipo de bot que envía frases o párrafos que incluyen enlaces a otras webs o anuncian productos. Son los 'spammers'. Pero hay otros que son peores: los 'sploggers', 'bots' que se registran como si fueran un usuario real y que interactúan con otros usuarios humanos. Son un problema porque envían mensajes incomprensibles, anuncios, captan rastros y llegan a crear páginas. Si en un blog conocido puedes tener entre 100 o 200 comentarios de 'spam' diarios, de sploggers puedes encontrar diez veces más», explica José Conti, programador de Wangguard, el software más empleado en la plataforma de creación web Wordpress para intentar cortar este tipo de amenazas.

A LA ESPERA DEL FALLO

«Pero hay otros 'bots' que se instalan y no hacen nada. Hasta que un día descubren un fallo de los llamados de 'día cero' (los que están en el código desde el principio pero pasan desapercibidos) y entonces se adueñan de la web, empiezas a enviar 'spam' sin saberlo y Google te penaliza. Puedes llegar a tener que cambiar el dominio», señala Conti.

Otros robots se dedican a poner comentarios en webs y blogs con mensajes publicitarios o enlaces a otras páginas para subir su presencia en Google, puesto que el buscador premia a las webs que más enlaces reciben y que más contenido generan. No hay que confundirlos con los 'trolls'', humanos dispuestos a responder a cualquier provocación o a inventarla. Los automáticos suelen ser amables y elogiosos con los autores de la página. De hecho, sospechosamente elogiosos.

También hay robots que van captando correos electrónicos que se publican en las webs para vender listas para enviar 'spam', o que copian el contenido de las páginas para ponerlo en otras que se crean de forma automática para ganar presencia, favorecer a otras páginas o alojar campañas publicitarias. Es un uso fraudulento del llamado 'scraping', que legalmente se puede usar para comparar precios, por ejemplo.

Lo más curioso es que la mayoría de estos robots durmientes se encuentran alojados en ordenadores particulares (el 77%, según un estudio de la consultora de seguridad White Ops para la patronal publicitaria de EEUU), sin que sus dueños conozcan su existencia. Tan solo el 18% está alojados en otras webs y el 3%, en empresas. «Ralentizan la web, perjudican la experiencia de usuario y hacen fraude porque aumentan artificialmente las visitas de una página», señala el informe de White Ops. El uso de un buen antivirus y programas cortafuegos ('firewalls') puede evitar dolores de cabeza.

Para hallar estos 'bots' tampoco hace falta entrar en la internet oculta o utilizar grandes claves criptográficas. Una buena búsqueda en Google permite dar con webs que prometen miles de visitas a un precio módico tan solo por comprar un programa o suscribirse a un servicio.

EL RUIDO DE INTERNET

«La verdad es que por parte de los operadores se hace poco para intentar evitar todo esto porque hay varios problemas», explica David Barroso, exresponsable de seguridad en Telefónica Digital y actualmente jefe técnico de Eleven Paths. «Es parte del ruido de internet, conexiones automatizadas que se pueden ver solo con arrancar un ordenador nuevo que tenga una versión antigua de Windows y al abrir el Explorer ves que ya hay tráfico. Son máquinas que están intentando conectarse a la tuya para buscar vulnerabilidades», añade.

Las operadoras, señala, tienen problemas para filtrar este tráfico. «Las redes que los controlan suelen estar en países del Este, en China o en Corea del Sur, aunque tienen paneles de control en todo el mundo. ¿Qué derecho tiene el operador a bloquear un tipo de tráfico? Estaría yendo contra la neutralidad de la red. Un programa de televisión de la BBC lo intentó con un programa informático que intentaba neutralizar los ataques de una red de 'bots' y les cambiaba la página de inicio del ordenador para avisarlo. Por muy BBC que seas y muy legítimo que sea tu objetivo, ¿qué derecho tienes a modificar un ordenador ajeno? Además, siempre hay errores», cuestiona Barroso.