OpenAI: accordo con il Pentagono senza restrizioni AI?

OpenAI: accordo con il Pentagono senza restrizioni AI?

OpenAI ha sottoscritto un contratto con il Dipartimento della Difesa, quindi i suoi modelli potrebbero sostituire quelli di Anthropic per uso militare.
OpenAI: accordo con il Pentagono senza restrizioni AI?
OpenAI ha sottoscritto un contratto con il Dipartimento della Difesa, quindi i suoi modelli potrebbero sostituire quelli di Anthropic per uso militare.

Sam Altman ha annunciato su X la sottoscrizione di un accordo con il Dipartimento della Difesa (o della Guerra) per l’uso dei modelli AI nei sistemi classificati. Il CEO di OpenAI ha sottolineato che ci saranno le stesse restrizioni previste da Anthropic. Un funzionario del governo statunitense ha invece comunicato che il contratto permette qualsiasi uso legale. Molti dipendenti di Amazon, Microsoft, Google e OpenAI avevano chiesto di non accettare le condizioni del Pentagono.

OpenAI eliminerà le restrizioni come xAI?

Anthropic non ha accettato la rinegoziazione del contratto sottoscritto a luglio 2025. Il Dipartimento della Difesa voleva usare Claude per qualsiasi uso legale. L’azienda guidata da Dario Amodei non vuole che i suoi modelli vengano utilizzati per la sorveglianza di massa dei cittadini americani e per il controllo delle armi autonome.

Sam Altman aveva comunicato ai dipendenti che non verrà superata la stessa linea rossa tracciata da Anthropic:

Crediamo da tempo che l’intelligenza artificiale non debba essere utilizzata per la sorveglianza di massa o per armi letali autonome, e che gli esseri umani debbano rimanere coinvolti nelle decisioni automatizzate ad alto rischio. Vedremo se si raggiungerà un accordo con il Pentagono che consenta l’impiego dei nostri modelli in ambienti classificati e che sia in linea con i nostri principi. Chiederemo che il contratto copra qualsiasi utilizzo, ad eccezione di quelli illegali o inadatti alle implementazioni cloud, come la sorveglianza interna e le armi offensive autonome.

Il CEO ha annunciato stamattina la firma dell’accordo con il governo. I modelli AI di OpenAI verranno utilizzati nei sistemi classificati del Pentagono. Nel post su X è scritto:

Due dei nostri principi di sicurezza più importanti sono il divieto di sorveglianza di massa a livello nazionale e la responsabilità umana per l’uso della forza, anche per i sistemi d’arma autonomi. Il Dipartimento della Guerra concorda con questi principi, li recepisce nelle leggi e nelle politiche e li integriamo nel nostro accordo. Inoltre, creeremo misure di sicurezza tecniche per garantire che i nostri modelli si comportino correttamente, come richiesto anche dal Dipartimento della Guerra.

Alcune ore dopo è apparsa una nota della collettività sotto il post di Altman. Include un link al post pubblicato da un sottosegretario (Jeremy Lewin) che smentisce in pratica quanto affermato dal CEO di OpenAI. L’accordo prevede l’uso dei modelli AI per ogni uso legale.

Pochi giorni fa, anche xAI aveva sottoscritto un accordo per l’uso dei modelli Grok nei sistemi classificati. Secondo il Wall Street Journal, diverse agenzie federali hanno evidenziato che Grok non soddisfa nessun requisito di sicurezza. Cosa potrà mai andare storto?

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
28 feb 2026
Link copiato negli appunti