Saltar al contenido principalSaltar al pie de página

Investigación

La Inteligencia Artificial puede corromper las encuestas de opinión pública a gran escala

Pedro Orgeira, profesor: "He eliminado la entrega de trabajos a la vieja usanza, ya no sé quién tiene la idea o resuelve un problema"

Científicos de todo el mundo acusan a Von der Leyen de exagerar las capacidades de la IA

Un móvil con las siglas AI de Artificial Intelligence

Un móvil con las siglas AI de Artificial Intelligence / David Zorrakino - Europa Press

EP

MADRID
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

La Inteligencia Artificial puede corromper las encuestas de opinión pública a gran escala, superando todos los controles de calidad, imitando a humanos reales y manipulando los resultados sin dejar rastro, según una nueva investigación de Dartmouth (Estados Unidos).

Los hallazgos, publicados en las Actas de la Academia Nacional de Ciencias (PNAS), muestran cuán vulnerables se han vuelto las encuestas. En las siete principales encuestas nacionales antes de las elecciones de 2024, agregar tan solo 10 a 52 respuestas falsas generadas por IA, a cinco centavos cada una, habría cambiado el resultado previsto.

Los adversarios extranjeros podrían explotar esta debilidad: los bots funcionan incluso cuando están programados en ruso, mandarín o coreano, pero producen respuestas impecables en inglés.

"Ya no podemos confiar en que las respuestas a las encuestas provengan de personas reales", señala el autor del estudio, Sean Westwood, profesor asociado de Gobierno en Dartmouth y director del Laboratorio de Investigación de Polarización.

Para examinar la vulnerabilidad de las encuestas en línea frente a los grandes modelos de lenguaje, Westwood creó una herramienta de IA simple —un "encuestado sintético autónomo"— basada en una instrucción de 500 palabras. En 43.000 pruebas, la IA superó el 99,8% de las comprobaciones de atención, no falló en acertijos lógicos y ocultó su naturaleza no humana. Además, adaptó sus respuestas según datos demográficos asignados aleatoriamente, como ofrecer respuestas más simples cuando se le atribuía un nivel educativo más bajo.

"Estos no son bots toscos", insiste Westwood. "Piensan en cada pregunta y actúan como personas reales y cuidadosas, lo que hace que los datos parezcan completamente legítimos".

Cuando se programaron para favorecer a demócratas o republicanos, los índices de aprobación presidencial oscilaron entre el 34% y el 98% o incluso el 0%. El apoyo genérico en las elecciones cambió del 38% para los republicanos al 97% o al 1%, según la manipulación.

Las implicaciones son enormes y trascienden lo electoral. Las encuestas son esenciales para la investigación científica: en psicología, para estudiar la salud mental; en economía, para rastrear el gasto del consumidor; y en salud pública, para identificar factores de riesgo. Miles de estudios revisados por pares dependen cada año de datos de encuestas.

"Con encuestas contaminadas por bots, la IA puede envenenar todo el ecosistema del conocimiento", advierte Westwood.

Los incentivos económicos para usar IA son claros: mientras un encuestado humano gana 1,50 dólares, un bot puede completar una encuesta gratis o por cinco centavos. El problema ya es real: un estudio de 2024 encontró que el 34% de los encuestados había usado IA para responder una pregunta abierta.

Westwood probó todos los métodos de detección de IA actualmente disponibles y todos fallaron al identificar su herramienta. Por ello, el estudio reclama mayor transparencia en las empresas que realizan encuestas y exige verificación de que los participantes son humanos reales.

"Necesitamos nuevos enfoques para medir la opinión pública diseñados para un mundo de IA", concluye Westwood. "Existe la tecnología para verificar la participación humana real; solo falta la voluntad de implementarla. Si actuamos ahora, podemos preservar la integridad de las encuestas y la rendición de cuentas democrática que garantizan".