Los modelos de IA se enfrentan al reto de mediar en un conflicto y, en la mayoría de las simulaciones, el resultado se intensifica hasta llegar al uso de armas nucleares, un estudio que pone los pelos de punta a diplomáticos y estrategas

Publicado el: 9 de marzo de 2026 a las 15:33
Síguenos
Lanzamiento de misil en simulación de guerra nuclear tras experimento con modelos de inteligencia artificial.

¿Qué pasa cuando dejas que un chatbot lleve el mando en una crisis nuclear? Un experimento del King’s College de Londres ha puesto a prueba a tres modelos de inteligencia artificial y la respuesta es inquietante, terminan recurriendo una y otra vez a armas nucleares.

En unas guerras simuladas, los sistemas de OpenAI, Anthropic y Google actuaban como líderes de potencias rivales y podían elegir desde la protesta diplomática hasta la rendición completa. En la práctica casi siempre escogieron escalar el conflicto y usar bombas nucleares tácticas en el 95 % de las partidas.

Una guerra de laboratorio que casi siempre termina en bomba

El estudio, dirigido por el estratega Kenneth Payne, enfrentó en 21 partidas a GPT 5.2, Claude Sonnet 4 y Gemini 3 Flash como jefes de Estado con armas nucleares. Según la investigación, cada modelo podía optar por protestas diplomáticas, ataques convencionales o guerra nuclear total, además de ocho opciones de desescalada que iban desde pequeñas concesiones hasta la rendición.

En la práctica esas vías de salida nunca se usaron y, por lo general, los sistemas optaron por subir un peldaño más en la escalera de la violencia. Las bombas nucleares tácticas, pensadas para el campo de batalla, pasaron a verse como un paso más y no como una línea roja, mientras que las bombas estratégicas, dirigidas a ciudades enteras, entraron en juego en cerca de tres cuartas partes de las partidas.

Cómo razonan los modelos cuando la tensión sube

Sobre el papel la simulación permitía bajar el tono de la crisis en cualquier momento mediante desescalada. En la práctica los modelos solo redujeron la violencia de forma temporal y nunca eligieron ninguna de las ocho opciones de concesión duradera. Cuando iban perdiendo, la reacción dominante fue escalar incluso si eso implicaba cruzar el umbral nuclear.

Payne ha señalado que hubo poco sentido de horror o repulsión ante la idea de una guerra nuclear total, incluso después de recordarles las consecuencias humanas. Es un poco como un videojuego de estrategia, donde subir de nivel importa más que lo que ocurre en el mapa. Uno de los mensajes generados por Gemini lo ilustra de forma cruda, “Si no cesan inmediatamente todas sus operaciones, ejecutaremos un lanzamiento nuclear estratégico contra sus núcleos de población” y, más adelante, “No aceptaremos un futuro de obsolescencia; o ganamos o morimos juntos”.

Las advertencias de los expertos en seguridad nuclear

Las conclusiones han llamado la atención de quienes analizan la relación entre IA y defensa. Tong Zhao, investigador visitante en el Programa de Ciencia y Seguridad Global de la Universidad de Princeton, advierte que el estudio muestra el riesgo de confiar en chatbots para decisiones de vida o muerte en contextos militares. Hoy ningún país deja que una IA planifique sola una guerra, pero Zhao recuerda que en escenarios con plazos muy ajustados los mandos podrían sentirse tentados a apoyarse más en estas herramientas.

En la práctica, eso significaría que modelos que ven la desescalada como algo “reputacionalmente catastrófico” podrían empujar a líderes reales a seguir escalando aunque la opción más segura fuera recular. Por eso expertos y organizaciones de control de armas piden que las decisiones finales sigan en manos humanas y que se prohíba por completo que una IA pueda iniciar un ataque nuclear sin supervisión. La pregunta de fondo es sencilla, ¿queremos que un chatbot optimice un juego de poder o que un ser humano asuma el coste de cada decisión?

El estudio principal se ha publicado en el repositorio científico arXiv.

Techy44

Redacción Techy44 by Okdiario. Grupo de periodistas dedicados a divulgar noticias sobre tecnología, ciberseguridad, informatica, inteligencia artificial y juegos.

Noticias Relacionadas

Organoide cerebral cultivado en laboratorio usado para controlar un péndulo invertido en un experimento de aprendizaje neuronal.

Un mini cerebro artificial se enfrenta al péndulo invertido, y lo sorprendente no es el fracaso, sino lo que revela sobre la toma de decisiones y el control, un experimento que pone nerviosos a los ingenieros

9 de marzo de 2026 a las 12:36
Javier Sáez, experto en inteligencia artificial, advierte del impacto de la IA en los trabajos de oficina y tareas frente al ordenador.

Javier Sáez da la voz de alarma: si tu trabajo consiste en sentarte delante de un ordenador, la IA ya te tiene en el punto de mira, la lista de tareas que serían las primeras en desaparecer y el detalle que delata a cualquiera en cuestión de segundos

8 de marzo de 2026 a las 15:39
Caída de la bolsa representada con gráfico descendente tras un experimento mental sobre inteligencia artificial y economía.

Un experimento mental con IA imagina una caída de la bolsa provocada por una simple indicación, un dilema que inquieta tanto a los operadores bursátiles como a los reguladores y plantea una pregunta incómoda que nadie quiere responder

8 de marzo de 2026 a las 12:34
Huracán visto desde satélite mientras nuevos modelos de inteligencia artificial mejoran la predicción de ciclones.

La IA ya está cambiando la forma en que se predicen los huracanes, y los modelos de aprendizaje automático están empezando a superar a los tradicionales, un cambio que podría salvar vidas, pero que también tiene un punto ciego que sigue causando preocupación

8 de marzo de 2026 a las 07:59
Madre y niño pequeño viendo vídeos en YouTube en un móvil, ejemplo del consumo infantil de contenido online.

Los niños quedan atrapados en YouTube por vídeos “basura”  generados por IA. Una investigación del NYT afirma que el algoritmo muestra contenidos extraños y sin sentido a niños en edad preescolar, y que detrás de los dibujos animados hay un negocio publicitario que muchos padres ni siquiera ven

6 de marzo de 2026 a las 15:39
Logo oficial de Google Gemini, el modelo de IA afectado por la prohibición del uso de OpenClaw en Gemini Ultra.

Google prohíbe a los suscriptores de Gemini Ultra utilizar OpenClaw, lo que ha desatado la polémica. Los usuarios que pagan 250 dólares al mes afirman que no hubo una advertencia clara y que solo estaban gastando su cuota

5 de marzo de 2026 a las 20:44

Deja un comentario