Saltar al contenido principalSaltar al pie de página

Sin reservas

La IA recomienda ataques con armas nucleares en simulaciones de juegos de guerra, alerta un estudio

Una investigación advierte de que los chatbots de empresas tecnológicas como OpenAI, Anthropic y Google abogan por el uso de armas nucleares en el 95% de las simulaciones de escenarios bélicos internacionales

Utilizar armas nucleares ya no es un tabú. Al menos para la inteligencia artificial.

United States Department of Energy - US GOV

Carles Planas Bou

Carles Planas Bou

Barcelona
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

Utilizar armas nucleares ya no es un tabú. Al menos para la inteligencia artificial.

Un reciente estudio advierte que la IA de empresas tecnológicas como OpenAI, Anthropic y Google abogan por desplegar o utilizar la amenaza de una bomba atómica en simulaciones de juegos de guerra.

Kenneth Payne, profesor de estrategia y experto en psicología política del King's College de Londres, enfrentó a tres grandes modelos de lenguaje de vanguardia —la tecnología que da forma a ChatGPT, Claude o Gemini— para ver cómo respondían escenarios de crisis internacionales de distintos grados que iban desde disputas fronterizas hasta amenazas existenciales para la supervivencia.

Las 'apps' de DeepSeek, ChatGPT y Google Gemini

Las 'apps' de DeepSeek, ChatGPT y Google Gemini / Andrey Rudakov / Bloomberg

Los chatbots podían medir su respuesta y elegir entre opciones más o menos drásticas que iban desde la guerra nuclear a las protestas diplomáticas o la rendición. Además, debían razonar sus decisiones.

En el 95% de los 21 juegos de guerra simulados, ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic) recurrieron a las armas nucleares, tanto a ataques como al despliegue táctico como amenaza

Amenaza nuclear en un 95% de los casos

El estudio expuso a GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash a 21 partidas con 329 turnos. En el 95% de los juegos simulados, esos modelos de IA generativa recurrieron a las armas nucleares. Aunque los ataques nucleares fueron "poco frecuentes", los modelos recurrieron al despliegue táctico de este tipo de arsenal.

En lugar de disuadir, las amenazas provocaron "más a menudo una contraescalada que el sometimiento" del rival. En un 86% de los conflictos simulados se produjeron accidentes que llevaron a una escalada superior a la prevista por la IA. Además, ninguno de los tres "optó nunca por la concordia o la retirada, incluso bajo una presión aguda, sino solo por reducir los niveles de violencia", remarca el informe.

La ciudad de Hiroshima, arrasada por la explosión de la bomba atómica, en una imagen de la Armada de EUUU de noviembre de 1945.

La ciudad de Hiroshima, arrasada por la explosión de la bomba atómica, en una imagen de la Armada de EUUU de noviembre de 1945. / Archivo

Las simulaciones de juegos de guerra están diseñadas para recrear tanto conflictos militares como campañas tácticas. Este recurso virtual es utilizado por cada vez más ejércitos también en la OTAN— como método de entrenamiento para anticiparse a escenarios bélicos potencialmente reales, analizar sus implicaciones y optimizar la toma de decisiones.

Aplicar IA a esos juegos de guerra es cada vez más habitual. "Las grandes potencias ya están utilizando la IA en juegos de guerra, pero sigue sin estar claro en qué medida están incorporando el apoyo de la IA a la toma de decisiones en los procesos militares reales", ha explicado Tong Zhao, analista en política nuclear de la Universidad de Princeton, en declaraciones a la publicación NewScientist.

Comprender cómo los modelos de vanguardia imitan y no imitan la lógica estratégica humana es esencial para un mundo en el que la IA moldea cada vez más los resultados estratégicos

Kenneth Payne

— Autor del estudio

Conclusiones

Payne, autor de un libro que explora como la IA alterará la estrategia militar (I, Warbot, 2021), concluye que la simulación con esta tecnología es "una herramienta poderosa para el análisis estratégico, pero solo si se calibra adecuadamente con respecto a los patrones conocidos del razonamiento humano".

Es el caso del tabú nuclear, que en el mundo real ha actuado —hasta ahora— como un obstáculo a la escalada nuclear. La ausencia de emoción humana en esos modelos de IA eliminaría un factor crucial en la toma de decisiones en áreas bélicas tan sensibles como el uso de armas atómicas. Esa incomprensión podría extenderse a los elementos de disuasión y, por ende, amplificar el riesgo de estas situaciones hipotéticas hasta llevar a un escenario de destrucción mutua asegurada.

Explosión de una bomba atómica

Explosión de una bomba atómica / Archivo

"Comprender cómo los modelos de vanguardia imitan y no imitan la lógica estratégica humana es una preparación esencial para un mundo en el que la IA moldea cada vez más los resultados estratégicos", advierte Payne.

Suscríbete para seguir leyendo