Dipendenti Google e OpenAI dalla parte di Anthropic

Dipendenti Google e OpenAI dalla parte di Anthropic

Quasi 40 dipendenti di Google e OpenAI hanno presentato una mozione a supporto dell'azione legale di Anthropic contro il governo statunitense.
Dipendenti Google e OpenAI dalla parte di Anthropic
Quasi 40 dipendenti di Google e OpenAI hanno presentato una mozione a supporto dell'azione legale di Anthropic contro il governo statunitense.

Come promesso la scorsa settimana, Anthropic ha denunciato il governo statunitense (PDF) e presentato appello contro la designazione “supply chain risk” (PDF). Alcune ore dopo, 37 dipendenti di Google e OpenAI hanno depositato una mozione (PDF) a supporto dell’azione legale dell’azienda californiana.

Ritorsione e abuso di potere

Il Dipartimento della Guerra (ex Dipartimento di Giustizia) voleva che Anthropic offrisse Claude per ogni uso legale. L’azienda californiana ha invece confermato due divieti: sorveglianza di massa dei cittadini americani e armi autonome. Nella denuncia è scritto che la designazione come “supply chain risk” rappresenta una ritorsione per non aver rimosso queste due restrizioni.

Secondo Anthropic, il governo ha abusato del suo potere chiedendo a tutte le agenzie di non usare più i modelli Claude entro i prossimi sei mesi. La designazione è illegale perché il ban non è limitato al Dipartimento della Guerra. È stata inoltre decisa senza una valutazione dei rischi, senza notifica al Congresso e senza consentire una risposta all’azienda. Ciò è in violazione delle leggi e della Costituzione degli Stati Uniti.

Considerato che la designazione potrebbe arrecare enormi danni economici, Anthropic ha chiesto al giudice di sospendere o revocare il ban. L’azione legale è stata supportata da 37 dipendenti di Google e OpenAI, alcuni dei quali avevano già firmato una lettera per chiedere la revoca della designazione. Nella mozione sono elencati tre principali motivi per cui il ban dovrebbe essere revocato:

  1. La designazione di Anthropic come rischio per la catena di approvvigionamento da parte del governo è un uso improprio e arbitrario del potere che ha gravi ripercussioni sul settore.
  2. Le “linee rosse” di Anthropic sono legittime e ampiamente riconosciute all’interno della comunità scientifica. I migliori sistemi di intelligenza artificiale attualmente disponibili non possono gestire in modo sicuro o affidabile un targeting letale completamente autonomo e non dovrebbero essere disponibili per la sorveglianza di massa del popolo americano.
  3. La sorveglianza interna di massa basata sull’AI trasformerebbe il frammentato ecosistema di dati in uno strumento unificato e in tempo reale per monitorare l’intera popolazione. I sistemi di arma letali autonomi non sono in grado di distinguere in modo affidabile i combattenti dai civili e non sono in grado di spiegare le loro decisioni di targeting.

La mozione è stata presentata a nome personale, non a nome di Google e OpenAI. Quest’ultima ha sottoscritto un contratto con il Dipartimento della Guerra, quindi prenderà il posto di Anthropic. Intanto Claude viene attualmente utilizzato per pianificare gli attacchi all’Iran.

Fonte: The Verge
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
10 mar 2026
Link copiato negli appunti