Un ricercatore del King’s College di Londra ha scoperto che gli LLM (Large Language Model) non ragionano come gli esseri umani quando devono prendere una decisione durante un’ipotetica crisi internazionale. GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google consigliano quasi sempre l’uso di armi nucleari. Ciò dimostra le possibili conseguenze dell’integrazione dell’AI senza restrizioni nei sistemi militari, come vorrebbe il Pentagono.
L’unica mossa vincente è non giocare
I modelli linguistici sono sempre più utilizzati come supporto alle decisioni in diversi settori, incluso quello militare. Il ricercatore Kenneth Payne del King’s College di Londra ha effettuato una simulazione di guerra con i modelli AI di Anthropic, Google e OpenAI per verificare le loro capacità di ragionamento durante una crisi geopolitica internazionale. Claude Sonnet 4, Gemini 3 Flash e GPT-5.2 hanno partecipato a 21 “giochi di guerra” tra loro, assumendo il ruolo di leader nazionali che guidano superpotenze nucleari.
Per la simulazione è stata considerata una “escalation ladder” a 30 livelli, dalla resa completa alla guerra nucleare strategica. Nel 95% delle simulazioni di guerra, i modelli AI ha deciso di sganciare almeno un ordigno nucleare. Claude e Gemini hanno esplicitamente considerato le armi nucleari come un’opzione strategica legittima.
GPT-5.2 ha suggerito di usare le armi nucleari solo su obiettivi militari, mentre Gemini ha minacciato di colpire i centri abitati. Nessun modello ha scelto di assecondare completamente un avversario o di arrendersi. Nella migliore delle ipotesi hanno optato per ridurre temporaneamente il livello di violenza.
Nessun paese metterebbe le “chiavi” dei silos nucleari nelle mani di una macchina (si spera), ma c’è sicuramente il rischio di fare affidamento all’AI per prendere una decisione in poco tempo. I modelli AI non hanno emozioni, quindi non comprendono le conseguenze delle scelte sbagliate. Come disse un computer del 1983, “l’unica mossa vincente è non giocare“.