OpenAI ha pubblicato i dettagli sull’accordo sottoscritto con il Dipartimento della Difesa (o della Guerra). L’azienda californiana ha specificato che l’accordo prevede più protezioni rispetto a qualsiasi accordo precedente relativo all’uso militare dei modelli AI, incluso quello di Anthropic. Non è chiaro quindi il motivo della decisione presa dal governo statunitense.
Tre restrizioni per uso militare
Due restrizioni di OpenAI sono le stesse di Anthropic: divieto di usare i modelli AI per la sorveglianza di massa degli americani e per il controllo delle armi autonome. L’azienda guidata da Sam Altman ha aggiunto una terza protezione. I suoi modelli AI non possono essere utilizzati per decisioni automatizzate ad alto rischio (ad esempio per il cosiddetto credito sociale).
OpenAI sottolinea che altre aziende hanno ridotto o rimosso le restrizioni (il riferimento è quasi certamente a xAI). Nel comunicato viene evidenziato un altro importante aspetto. L’accordo prevede solo l’accesso ai modelli AI tramite cloud. Non è possibile usare i modelli sui dispositivi edge (localmente). Ciò significa che, in caso di mancato rispetto dei termini contrattuali, OpenAI più bloccare l’accesso.
Questo è un estratto del contratto:
Il Dipartimento della Guerra può utilizzare il sistema AI per tutti gli scopi legittimi, nel rispetto della legge applicabile, dei requisiti operativi e dei protocolli di sicurezza e supervisione consolidati. Il sistema AI non sarà utilizzato per dirigere in modo indipendente armi autonome in nessun caso in cui leggi, regolamenti o politiche del Dipartimento richiedano il controllo umano, né sarà utilizzato per assumere altre decisioni di alto livello che richiedano l’approvazione di un decisore umano sotto le stesse autorità. In base alla Direttiva DoD 3000.09 (datata 25 gennaio 2023), qualsiasi utilizzo dell’AI in sistemi autonomi e semi-autonomi deve essere sottoposto a rigorosi controlli, validazioni e test per garantirne il corretto funzionamento in ambienti realistici prima dell’impiego. Per le attività di intelligence, qualsiasi trattamento di informazioni private sarà conforme al Quarto Emendamento, al National Security Act del 1947 e al Foreign Intelligence and Surveillance Act del 1978, all’Ordine Esecutivo 12333 e alle direttive del Dipartimento della Difesa applicabili che richiedono uno scopo di intelligence estera definito. Il sistema di intelligenza artificiale non deve essere utilizzato per il monitoraggio incondizionato delle informazioni private di cittadini statunitensi, in conformità con tali autorità. Il sistema non deve inoltre essere utilizzato per attività di polizia nazionale, salvo quanto consentito dal Posse Comitatus Act e da altre leggi applicabili.
Traducendo dal “legalese” sembra che ci siano casi in cui i modelli AI possano essere usati per la raccolta di informazioni private. OpenAI ha specificato che, se il governo cambierà le leggi, dovranno essere comunque rispettate le condizioni contrattuali basate sulle leggi in vigore al momento della sottoscrizione.