Oltre 300 dipendenti di Google e più di 60 di OpenAI hanno firmato una lettera aperta per chiedere alle proprie aziende di sostenere Anthropic nella sua battaglia contro il Pentagono. Una battaglia che, mentre scriviamo, è appena deflagrata: Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic, e OpenAI ha annunciato un accordo con il Dipartimento della Guerra per fornire i propri modelli alle reti riservate. Ma andiamo con ordine.
Anthropic vs Pentagono: dipendenti Google e OpenAI firmano lettera di sostegno
Il Pentagono pretendeva l’accesso illimitato alla tecnologia AI di Anthropic per tutti gli usi leciti
. Anthropic ha detto no, o meglio, ha posto dei limiti: niente uso dei propri modelli per la sorveglianza di massa dei cittadini americani e niente armi completamente autonome senza supervisione umana.
Il Segretario della Guerra Pete Hegseth ha dato ad Anthropic un ultimatum: cedere entro le 17:01 di venerdì o affrontare le conseguenze, quindi essere dichiarata rischio per la catena di approvvigionamento della difesa o essere costretta a obbedire tramite il Defense Production Act, una legge dell’era della guerra di Corea.
Dario Amodei, CEO di Anthropic, ha risposto giovedì con una dichiarazione che non lascia margini: Queste due minacce sono intrinsecamente contraddittorie: una ci etichetta come rischio per la sicurezza, l’altra etichetta Claude come essenziale per la sicurezza nazionale. In ogni caso, queste minacce non cambiano la nostra posizione: non possiamo in buona coscienza accettare la loro richiesta.
La lettera dei dipendenti: Non lasciate che ci dividano
È in questo contesto che è arrivata la lettera aperta firmata da dipendenti di Google e OpenAI, aziende che sono concorrenti dirette di Anthropic. I firmatari chiedono ai propri dirigenti di mettere da parte le differenze e restare uniti per sostenere la linea di Anthropic.
Stanno cercando di dividere le aziende con la paura che l’altra cederà,
si legge nella lettera. Quella strategia funziona solo se nessuno di noi sa dove si trovano gli altri.
La risposta informale dei vertici è stata cautamente solidale. Sam Altman ha dichiarato alla CNBC che il Pentagono non dovrebbe minacciare il DPA contro queste aziende, e che condivide i paletti di Anthropic. Jeff Dean di Google DeepMind ha scritto su X che la sorveglianza di massa viola il Quarto Emendamento e ha un effetto paralizzante sulla libertà di espressione.
Poi è arrivato Trump
Ma venerdì sera la situazione è precipitata. Poche ore prima della scadenza dell’ultimatum, Trump è intervenuto con un post su Truth Social: I pazzi di sinistra di Anthropic hanno commesso un ERRORE DISASTROSO cercando di FARE I PREPOTENTI con il Dipartimento della Guerra. Ordino a OGNI Agenzia Federale di CESSARE IMMEDIATAMENTE l’uso della tecnologia di Anthropic.
Hegseth ha rincarato la dose, definendo il comportamento di Anthropic una lezione magistrale di arroganza e tradimento, designando l’azienda come rischio per la catena di approvvigionamento, cosa che di fatto la mette al bando dai contratti governativi.
Nel frattempo, OpenAI ha annunciato un accordo con il Pentagono per fornire la propria tecnologia alle reti classificate, con Altman che ha comunicato ai dipendenti che il governo permetterà a OpenAI di costruire il proprio “safety stack” e che non forzerà il modello a eseguire compiti che rifiuta.
Siamo di fronte a qualcosa di senza precedenti: un’azienda tecnologica privata che rifiuta di cedere al Pentagono su questioni di principio e ne paga le conseguenze immediate. Anthropic rischia di perdere non solo un contratto da 200 milioni di dollai, ma l’intera relazione con il governo federale americano.
Per i dipendenti che hanno firmato la lettera, il messaggio era chiaro, se un’azienda da sola può essere schiacciata, tre insieme sono molto più difficili da ignorare. Ma la solidarietà espressa dai vertici di Google e OpenAI non si è tradotta, almeno fino a questo momento, in azioni concrete. Anzi, OpenAI ha colto l’occasione per occupare lo spazio lasciato vuoto da Anthropic.
Ma allora, chi decide come viene usata l’intelligenza artificiale, le aziende che la sviluppano o i governi che vogliono usarla? E cosa succede quando quei governi minacciano di distruggere chi non si piega?