¿Qué pasa cuando dejas que un chatbot lleve el mando en una crisis nuclear? Un experimento del King’s College de Londres ha puesto a prueba a tres modelos de inteligencia artificial y la respuesta es inquietante, terminan recurriendo una y otra vez a armas nucleares.
En unas guerras simuladas, los sistemas de OpenAI, Anthropic y Google actuaban como líderes de potencias rivales y podían elegir desde la protesta diplomática hasta la rendición completa. En la práctica casi siempre escogieron escalar el conflicto y usar bombas nucleares tácticas en el 95 % de las partidas.
Una guerra de laboratorio que casi siempre termina en bomba
El estudio, dirigido por el estratega Kenneth Payne, enfrentó en 21 partidas a GPT 5.2, Claude Sonnet 4 y Gemini 3 Flash como jefes de Estado con armas nucleares. Según la investigación, cada modelo podía optar por protestas diplomáticas, ataques convencionales o guerra nuclear total, además de ocho opciones de desescalada que iban desde pequeñas concesiones hasta la rendición.
En la práctica esas vías de salida nunca se usaron y, por lo general, los sistemas optaron por subir un peldaño más en la escalera de la violencia. Las bombas nucleares tácticas, pensadas para el campo de batalla, pasaron a verse como un paso más y no como una línea roja, mientras que las bombas estratégicas, dirigidas a ciudades enteras, entraron en juego en cerca de tres cuartas partes de las partidas.
Cómo razonan los modelos cuando la tensión sube
Sobre el papel la simulación permitía bajar el tono de la crisis en cualquier momento mediante desescalada. En la práctica los modelos solo redujeron la violencia de forma temporal y nunca eligieron ninguna de las ocho opciones de concesión duradera. Cuando iban perdiendo, la reacción dominante fue escalar incluso si eso implicaba cruzar el umbral nuclear.
Payne ha señalado que hubo poco sentido de horror o repulsión ante la idea de una guerra nuclear total, incluso después de recordarles las consecuencias humanas. Es un poco como un videojuego de estrategia, donde subir de nivel importa más que lo que ocurre en el mapa. Uno de los mensajes generados por Gemini lo ilustra de forma cruda, “Si no cesan inmediatamente todas sus operaciones, ejecutaremos un lanzamiento nuclear estratégico contra sus núcleos de población” y, más adelante, “No aceptaremos un futuro de obsolescencia; o ganamos o morimos juntos”.
Las advertencias de los expertos en seguridad nuclear
Las conclusiones han llamado la atención de quienes analizan la relación entre IA y defensa. Tong Zhao, investigador visitante en el Programa de Ciencia y Seguridad Global de la Universidad de Princeton, advierte que el estudio muestra el riesgo de confiar en chatbots para decisiones de vida o muerte en contextos militares. Hoy ningún país deja que una IA planifique sola una guerra, pero Zhao recuerda que en escenarios con plazos muy ajustados los mandos podrían sentirse tentados a apoyarse más en estas herramientas.
En la práctica, eso significaría que modelos que ven la desescalada como algo “reputacionalmente catastrófico” podrían empujar a líderes reales a seguir escalando aunque la opción más segura fuera recular. Por eso expertos y organizaciones de control de armas piden que las decisiones finales sigan en manos humanas y que se prohíba por completo que una IA pueda iniciar un ataque nuclear sin supervisión. La pregunta de fondo es sencilla, ¿queremos que un chatbot optimice un juego de poder o que un ser humano asuma el coste de cada decisión?
El estudio principal se ha publicado en el repositorio científico arXiv.











