Come promesso la scorsa settimana, Anthropic ha denunciato il governo statunitense (PDF) e presentato appello contro la designazione “supply chain risk” (PDF). Alcune ore dopo, 37 dipendenti di Google e OpenAI hanno depositato una mozione (PDF) a supporto dell’azione legale dell’azienda californiana.
Ritorsione e abuso di potere
Il Dipartimento della Guerra (ex Dipartimento di Giustizia) voleva che Anthropic offrisse Claude per ogni uso legale. L’azienda californiana ha invece confermato due divieti: sorveglianza di massa dei cittadini americani e armi autonome. Nella denuncia è scritto che la designazione come “supply chain risk” rappresenta una ritorsione per non aver rimosso queste due restrizioni.
Secondo Anthropic, il governo ha abusato del suo potere chiedendo a tutte le agenzie di non usare più i modelli Claude entro i prossimi sei mesi. La designazione è illegale perché il ban non è limitato al Dipartimento della Guerra. È stata inoltre decisa senza una valutazione dei rischi, senza notifica al Congresso e senza consentire una risposta all’azienda. Ciò è in violazione delle leggi e della Costituzione degli Stati Uniti.
Considerato che la designazione potrebbe arrecare enormi danni economici, Anthropic ha chiesto al giudice di sospendere o revocare il ban. L’azione legale è stata supportata da 37 dipendenti di Google e OpenAI, alcuni dei quali avevano già firmato una lettera per chiedere la revoca della designazione. Nella mozione sono elencati tre principali motivi per cui il ban dovrebbe essere revocato:
- La designazione di Anthropic come rischio per la catena di approvvigionamento da parte del governo è un uso improprio e arbitrario del potere che ha gravi ripercussioni sul settore.
- Le “linee rosse” di Anthropic sono legittime e ampiamente riconosciute all’interno della comunità scientifica. I migliori sistemi di intelligenza artificiale attualmente disponibili non possono gestire in modo sicuro o affidabile un targeting letale completamente autonomo e non dovrebbero essere disponibili per la sorveglianza di massa del popolo americano.
- La sorveglianza interna di massa basata sull’AI trasformerebbe il frammentato ecosistema di dati in uno strumento unificato e in tempo reale per monitorare l’intera popolazione. I sistemi di arma letali autonomi non sono in grado di distinguere in modo affidabile i combattenti dai civili e non sono in grado di spiegare le loro decisioni di targeting.
La mozione è stata presentata a nome personale, non a nome di Google e OpenAI. Quest’ultima ha sottoscritto un contratto con il Dipartimento della Guerra, quindi prenderà il posto di Anthropic. Intanto Claude viene attualmente utilizzato per pianificare gli attacchi all’Iran.