IA y desinformación
Advertencia del fabricante de ChatGPT: los ciberdelincuentes ya usan la IA para tratar de manipular las elecciones en Estados Unidos
OpenAI asegura que ha neutralizado más de 20 campañas de influencia encubiertas alrededor del mundo, si bien no habían logrado "atraer la participación viral"

Trump vuelve a atacar a los migrantes indocumentados en el estado clave de Wisconsin


Carles Planas Bou
Carles Planas BouPeriodista
Periodista especializado en tecnología y poder. Escribe sobre IA, capitalismo de plataformas, privacidad y derechos digitales. Excorresponsal político en Berlín entre 2015-2019. También ha cubierto la actualidad en Europa Central y Canadá. Graduado en Periodismo por la URL y máster en Relaciones Internacionales por la UAB. Ha colaborado con medios como TVE, Catalunya Ràdio, Deutsche Welle, TV3, Cadena SER, El Orden Mundial o Watif.
Las campañas de influencia y manipulación política se apoyan cada vez más en la inteligencia artificial (IA). OpenAI, la compañía detrás del ChatGPT, alertó este miércoles de que grupos de ciberdelincuentes están usando sus herramientas tratar de interferir en las elecciones presidenciales que Estados Unidos celebra el próximo 5 de noviembre.
En su último informe, la firma dirigida por Sam Altman asegura haber neutralizado este año más de 20 intentos en los que ciberactores vinculados a Estados se habrían servido de la IA para generar desinformación sobre el proceso electoral y verterla en las redes sociales o para depurar y perfeccionar malware, los programas informáticos maliciosos con los que se articulan los ciberataques.
La advertencia de OpenAI va en línea con el estudio publicado en febrero por Microsoft, su socio comercial, a principios de año. En él se señalaba que piratas informáticos vinculados a países como Rusia, China, Irán o Corea del Norte están explotando las prestaciones de ChatGPT para detectar víctimas y optimizar sus ataques.
Alcance mundial
Aunque la batalla electoral entre Donald Trump y Kamala Harris centra los focos, el informe de OpenAI remarca que los usos maliciosos de su IA generativa van más allá de EEUU. Así pues, entre los casos neutralizados había operaciones encubiertas que apuntaban a los procesos democráticos en la Unión Europea, Ruanda, Venezuela o Escocia. Detrás había desde cibercriminales vinculados a la inteligencia iraní a empresas comerciales de Israel.
La start-up también ha detectado intentos de acceder a las credenciales de sus empleados, incluso un ataque perpetrado por un rival con sede en China.
Influencia limitada
No obstante, OpenAI remarca que ninguna de las operaciones de influencia detectadas ha sido capaz de "atraer la participación viral o crear audiencias sostenidas". "Los actores de las amenazas siguen evolucionando y experimentando con nuestros modelos, pero no hemos visto pruebas de que esto haya dado lugar a avances significativos en su capacidad para crear malware sustancialmente nuevo o crear audiencias virales", reza el informe.
El único caso que sí logró viralizarse, aseguran, fue una campaña en la que parecía mostrar que trolls rusos estaban utilizando los sistemas de OpenAI para fabricar publicaciones favorables a Trump en X, la red social también conocida como Twitter. Sin embargo, se trataba de una "afirmación falsa", según la compañía.
- Directo | Cerrado el aeropuerto de Heathrow de Londres por un incendio en una subestación eléctrica
- Trump firma una orden ejecutiva para desmantelar el Departamento de Educación
- Guerra entre Rusia y Ucrania: última hora del conflicto
- Rusia impone el estado de emergencia en el distrito de Engels tras un ataque ucraniano contra un aeródromo
- Elon Musk acude al Pentágono a una reunión que desata preocupación sobre seguridad nacional y conflictos de interés
- Un incendio provoca el cierre del aeropuerto de Heathrow y graves alteraciones en el tráfico aéreo internacional
- Suspendida una maestra en Italia por tener una cuenta en Only Fans
- Greenpeace deberá pagar cientos de millones de dólares a la empresa Energy Transfer