Ultimatum per Anthropic: deve rimuovere le restrizioni AI

Ultimatum per Anthropic: deve rimuovere le restrizioni AI

Anthropic dovrà consentire il libero uso di Claude per scopi militari, altrimenti verrà obbligata da una legge o perderà il contratto da 200 milioni.
Ultimatum per Anthropic: deve rimuovere le restrizioni AI
Anthropic dovrà consentire il libero uso di Claude per scopi militari, altrimenti verrà obbligata da una legge o perderà il contratto da 200 milioni.

Al termine del meeting al Pentagono, il Segretario della Difesa Pete Hegseth ha dato un ultimatum ad Anthropic. Entro il prossimo venerdì dovrà rimuovere le restrizioni al modello Claude per consentire il libero uso a scopo militare. Se non rispetterà tale scadenza, l’azienda californiana perderà il contratto o verrà applicato il Defense Production Act (DPA).

Grok sostituirà Claude per usi militari?

Anthropic ha ottenuto dal Dipartimento della Difesa un contratto da 200 milioni di dollari. L’azienda californiana ha tuttavia imposto alcuni vincoli. Claude non dovrà essere utilizzato come strumento per la sorveglianza di massa dei cittadini americani e per lo sviluppo di armi autonome (senza il controllo umano).

Lo scontro tra Anthropic e il Pentagono è iniziato quando l’azienda californiana ha scoperto che Claude è stato utilizzato durante l’operazione militare in Venezuela (terminata con la cattura del Presidente Nicolas Maduro) tramite Palantir. Il Segretario della Difesa ha dichiarato che i militari devono avere la libertà di usare i modelli AI per tutti gli scopi legali.

Ieri è avvenuto un incontro tra Dario Amodei (CEO e co-fondatore di Anthropic) con un team di negoziatori guidato da Pete Hegseth. Secondo le fonti di Axios non è stata raggiunta un’intesa, quindi è scattato il conto alla rovescia dell’ultimatum. Entro le ore 17:00 di venerdì 27 febbraio, Anthropic dovrà consentire l’accesso senza restrizioni a Claude. In caso contrario verrà invocato il Defense Production Act, la legge che consente al Presidente degli Stati Uniti di obbligare le aziende private ad accettare e dare priorità a determinati contratti, in base alle esigenze di difesa nazionale.

Il Pentagono potrebbe anche annullare il contratto e inserire Anthropic nella blacklist “supply chain risk”, in base alla quale tutte le aziende che lavorano con il governo statunitense dovranno dichiarare di non usare Claude. Le fonti di Reuters affermano che Anthropic non rimuoverà le restrizioni.

Al momento non esiste un modello AI di backup. Claude è l’unico che può essere usato nei sistemi classificati. Secondo il New York Times, xAI ha sottoscritto un simile accordo con il Pentagono, ma non è chiaro se Grok potrà sostituire completamente Claude. Sono in corso anche discussioni con OpenAI e Google (ChatGPT e Gemini sono utilizzati in sistemi non classificati).

Fonte: Axios
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
25 feb 2026
Link copiato negli appunti