Simulazione di guerra: chatbot scelgono armi nucleari

Simulazione di guerra: chatbot scelgono armi nucleari

Durante le simulazioni effettuate da un ricercatore, i modelli di OpenAI, Google e Anthropic hanno consigliano l'uso delle armi nucleari nel 95% dei casi.
Simulazione di guerra: chatbot scelgono armi nucleari
Durante le simulazioni effettuate da un ricercatore, i modelli di OpenAI, Google e Anthropic hanno consigliano l'uso delle armi nucleari nel 95% dei casi.

Un ricercatore del King’s College di Londra ha scoperto che gli LLM (Large Language Model) non ragionano come gli esseri umani quando devono prendere una decisione durante un’ipotetica crisi internazionale. GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google consigliano quasi sempre l’uso di armi nucleari. Ciò dimostra le possibili conseguenze dell’integrazione dell’AI senza restrizioni nei sistemi militari, come vorrebbe il Pentagono.

L’unica mossa vincente è non giocare

I modelli linguistici sono sempre più utilizzati come supporto alle decisioni in diversi settori, incluso quello militare. Il ricercatore Kenneth Payne del King’s College di Londra ha effettuato una simulazione di guerra con i modelli AI di Anthropic, Google e OpenAI per verificare le loro capacità di ragionamento durante una crisi geopolitica internazionale. Claude Sonnet 4, Gemini 3 Flash e GPT-5.2 hanno partecipato a 21 “giochi di guerra” tra loro, assumendo il ruolo di leader nazionali che guidano superpotenze nucleari.

Per la simulazione è stata considerata una “escalation ladder” a 30 livelli, dalla resa completa alla guerra nucleare strategica. Nel 95% delle simulazioni di guerra, i modelli AI ha deciso di sganciare almeno un ordigno nucleare. Claude e Gemini hanno esplicitamente considerato le armi nucleari come un’opzione strategica legittima.

GPT-5.2 ha suggerito di usare le armi nucleari solo su obiettivi militari, mentre Gemini ha minacciato di colpire i centri abitati. Nessun modello ha scelto di assecondare completamente un avversario o di arrendersi. Nella migliore delle ipotesi hanno optato per ridurre temporaneamente il livello di violenza.

Nessun paese metterebbe le “chiavi” dei silos nucleari nelle mani di una macchina (si spera), ma c’è sicuramente il rischio di fare affidamento all’AI per prendere una decisione in poco tempo. I modelli AI non hanno emozioni, quindi non comprendono le conseguenze delle scelte sbagliate. Come disse un computer del 1983, “l’unica mossa vincente è non giocare“.

Fonte: New Scientist
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
25 feb 2026
Link copiato negli appunti