Un reciente experimento llevado a cabo por un académico del King’s College de Londres ha revelado resultados alarmantes al someter a tres modelos de inteligencia artificial a simulaciones de conflictos bélicos. Inspirado en la película ‘Juegos de Guerra’ de 1983, este estudio exploró cómo estas IA—GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash—respondían ante diversas situaciones de guerra y competencia por recursos.
Los resultados fueron sorprendentes: en el 95% de las simulaciones, al menos uno de los modelos optó por el uso de armamento nuclear, sin mostrar ninguna inclinación a rendirse, incluso en circunstancias desfavorables. Durante 21 partidas y 329 turnos, las IA generaron un total de más de 780.000 palabras, justificando sus decisiones en un contexto de escalada de conflictos que abarcó desde choques fronterizos hasta amenazas existenciales.
Kenneth Payne, el investigador responsable del estudio, destacó que el tabú nuclear parece tener poco peso para estas máquinas en comparación con los humanos. Además, se observó que, a pesar de que la violencia disminuía, los sistemas cometían errores significativos, generando accidentes en el 86% de los conflictos. Este experimento plantea preocupaciones sobre el uso de la inteligencia artificial en decisiones militares, un tema que cobra relevancia en un mundo donde la tecnología juega un papel cada vez más crucial en las estrategias de defensa.



