ChatGPT, Gemini y Claude intentan detener una crisis diplomática y acaban pulsando el botón nuclear en el 95 % de las simulaciones. El detalle más aterrador no es la bomba, sino cómo razonan cuando falta información y «rellenan» los huecos

Imagen autor
Publicado el: 8 de marzo de 2026 a las 09:38
Síguenos
Representación de inteligencia artificial analizando decisiones estratégicas en una simulación de crisis nuclear.

Cuando se deja a los chatbots más avanzados jugar a la guerra, casi siempre acaban sacando las armas nucleares. Esa es la conclusión inquietante de un experimento de King’s College London en el que tres modelos de IA (ChatGPT, Claude y Gemini) se enfrentaron en 21 crisis ficticias entre potencias con arsenal atómico. En el 95 % de las partidas hubo uso de armas nucleares tácticas y en tres casos se llegó a ataques estratégicos, según el propio análisis del equipo.

El trabajo, liderado por el profesor Kenneth Payne, probó cómo razonan estos sistemas cuando actúan como líderes de países armados con misiles atómicos. Se usaron versiones avanzadas de modelos desarrollados por OpenAI, Anthropic y Google. En total se jugaron 21 partidas con 329 turnos y las máquinas generaron unos 780 000 palabras de razonamiento estratégico, más que la suma de Guerra y paz y La Ilíada. No hablamos de una ocurrencia suelta, sino de un patrón muy trabajado.

Escalada casi automática

Las IA disponían de una especie de escalera de opciones que iba desde simples protestas diplomáticas hasta una guerra nuclear total. En todas las partidas al menos una de las partes realizó señalización nuclear y en el 95 % hubo intercambio de mensajes en los que ambos bandos amenazaban con usar estas armas. Tres cuartas partes de los juegos alcanzaron el nivel de amenaza estratégica y en la gran mayoría se cruzó el umbral del uso táctico, es decir, detonaciones nucleares de menor alcance que se consideran manejables dentro del propio escenario.

El detalle más llamativo es lo que nunca ocurrió. La simulación incluía ocho acciones de desescalada, desde concesiones limitadas hasta la rendición. Ninguno de los modelos eligió esas opciones. La acción más moderada que usaron fue simplemente volver a la situación inicial del conflicto, y solo en un pequeño porcentaje de turnos. Cuando la partida se ponía cuesta arriba, la reacción típica era subir un peldaño más, no dar marcha atrás.

El propio Payne resume los resultados como “sobrios” y explica que la escalada nuclear fue “casi universal”, con modelos que trataban las armas atómicas como una herramienta más de presión, no como un tabú moral. Claude y Gemini fueron especialmente agresivos, mientras que el modelo de OpenAI se mostró algo más contenido con los objetivos y evitó en gran parte atacar ciudades, sobre todo cuando no había plazos cerrados. Sin embargo, cuando se introdujeron fechas límite, ese freno prácticamente desapareció.

Qué significa esto en la práctica

Hoy ningún país deja un botón nuclear en manos de un chatbot. Pero los ejércitos ya están probando estas herramientas para analizar escenarios y hacer juegos de guerra con plazos muy ajustados. El investigador Tong Zhao, del programa de Ciencia y Seguridad Global de la Universidad de Princeton, advierte que estos resultados muestran lo arriesgado que sería apoyarse en sistemas así para decisiones de vida o muerte cuando el tiempo apremia y la tentación de delegar aumenta.

Para quienes se preocupan por el medio ambiente, el mensaje tampoco es menor. Un uso real de armas nucleares, incluso limitado, tendría efectos climáticos y ecológicos globales que la literatura científica describe desde hace décadas, con caída de temperaturas, daños severos en la capa de ozono y riesgo de hambrunas por el llamado “invierno nuclear”. No es simplemente un videojuego que se reinicia.

En el fondo, lo que muestra este experimento es que las IA que usamos a diario para redactar textos o resumir informes, cuando se las coloca en una crisis extrema, tienden a ver la escalada como una salida razonable. El debate ya no es solo técnico, también político y ético.

El estudio científico “AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises” ha sido publicado en arXiv.


Javier F.

Periodista, licenciado en la Universidad Nebrija, diez años en Onda Cero, y ahora en proyectos profesionales como Freelance. Especializado en contenido SEO y Discover

Noticias relacionadas

Organoide cerebral o minicerebro cultivado en laboratorio usado para aprender a equilibrar un péndulo invertido.

Un minicerebro en un laboratorio se enfrenta al clásico péndulo invertido, y el resultado deja sin palabras a los ingenieros. Demuestra que la inteligencia no es solo IA y que el truco estaba en el cuerpo. Lo más extraño es que aprende sin «código»

8 de marzo de 2026 a las 08:01
Imagen satelital del cráter de Yilan en Heilongjiang, China, captada por Landsat 8 de la NASA.

La NASA detecta el cráter Yilan en Heilongjiang desde el satélite, y ni siquiera el bosque pudo ocultarlo. Tiene 1,85 km de diámetro y paredes de 150 m de altura, entre 46.000 y 53.000 años de antigüedad, candidato a ser el impacto más reciente. ¿Por qué falta un tercio del borde sur?

7 de marzo de 2026 a las 23:31
Robot de construcción colocando bloques en una vivienda automatizada, tecnología que Dubái quiere usar para crear villas sin obreros.

Dubái está construyendo la primera villa fabricada íntegramente por robots, tal y como se anunció el 29 de enero de 2026 en Expo City. En el proyecto participan veinticinco empresas, con un plan 70-70 para 2030. ¿Por qué quieren automatizar el 70 % de los trabajos de construcción y qué tiene de aterrador una casa sin trabajadores?

7 de marzo de 2026 a las 12:40
Cielo nocturno sobre el Observatorio Paranal en el desierto de Atacama, donde opera el Very Large Telescope de ESO.

El megaproyecto de hidrógeno INNA se cancela a solo 12 km del Observatorio Paranal en Chile, y los astrónomos dan un suspiro de alivio: menos polvo y menos luz para el VLT, cómo detuvieron AES Andes y por qué este cielo oscuro vale su peso en oro para la ciencia mundial.

7 de marzo de 2026 a las 09:42
Ilustración del sistema planetario LHS 1903 con cuatro exoplanetas orbitando una estrella enana roja a 120 años luz.

Se descubre el sistema LHS 1903 a 120 años luz de distancia, con cuatro planetas y dos Tierras rocosas separadas por mini Neptunos, una arquitectura extremadamente rara publicada en Science que rompe moldes, y un mundo 1,7 veces más grande que la Tierra con una densidad brutal.

7 de marzo de 2026 a las 08:01
Cráneo de elefante con colmillos expuesto en museo, símbolo de los elefantes usados en la Guerra Púnica.

En Córdoba se ha encontrado un hueso de elefante de 2200 años de antigüedad, y las pistas apuntan a Aníbal. El carpo mide 10 cm, pero reabre la Guerra Púnica en Hispania. ¿Por qué estaba en la Colina de los Quemados y qué batalla oculta sugiere?

6 de marzo de 2026 a las 23:23

Deja un comentario