OpenAI modifica l'accordo con il Pentagono

OpenAI modifica l'accordo con il Pentagono

OpenAI ha chiarito che i suoi modelli non verranno utilizzati per l'elaborazione dei dati dei cittadini americani acquisiti commercialmente da broker.
OpenAI modifica l'accordo con il Pentagono
OpenAI ha chiarito che i suoi modelli non verranno utilizzati per l'elaborazione dei dati dei cittadini americani acquisiti commercialmente da broker.

Sam Altman ha comunicato su X che OpenAI aggiornerà l’accordo con il Dipartimento della Difesa (o della Guerra) per chiarire che i modelli AI non verranno utilizzati per spiare i cittadini statunitensi. Leggendo il testo precedente sembrava che il governo potesse raccogliere le informazioni personali in alcuni casi. Intanto l’app ChatGPT è stata superata dall’app Claude negli Stati Uniti in termini di download.

Nuovi termini contrattuali

Dopo lo scontro tra Anthropic e il Dipartimento della Difesa (che probabilmente proseguirà in tribunale), OpenAI ha annunciato la sottoscrizione di un accordo per l’uso militare dei suoi modelli. La versione aggiornata dei termini contrattuali riguarda la raccolta dei dati personali. Sam Altman ha comunicato che verrà aggiunta questa parte (indicata anche sul sito ufficiale):

In conformità con le leggi applicabili, tra cui il Quarto Emendamento della Costituzione degli Stati Uniti, il National Security Act del 1947 e il FISA Act del 1978, il sistema di intelligenza artificiale non deve essere utilizzato intenzionalmente per la sorveglianza interna di cittadini e persone statunitensi. A scanso di equivoci, il Dipartimento ritiene che questa limitazione proibisca il tracciamento, la sorveglianza o il monitoraggio deliberati di cittadini o persone statunitensi, anche attraverso l’utilizzo di informazioni personali o identificabili acquisite commercialmente.

Nella precedente versione era scritto “informazioni private“. Ora viene specificato che i modelli AI non verranno usati per l’elaborazione delle informazioni “acquisite commercialmente” (quindi anche quelle pubbliche). Ciò dovrebbe escludere dati di geolocalizzazione, navigazione web o finanziari acquistate da broker.

Il Dipartimento della Difesa ha inoltre garantito che i modelli di OpenAI non verranno usati dalle agenzie di intelligence, come la NSA. Un simile utilizzo richiederà la modifica del contratto. Altman ha ribadito infine che Anthropic non dovrebbe essere designata come “supply chain risk”.

In seguito all’ordine ricevuto da Donald Trump, il Dipartimento di Stato e il Dipartimento del Tesoro hanno comunicato che non useranno più i prodotti di Anthropic. Quasi certamente verranno utilizzati i modelli di OpenAI.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
3 mar 2026
Link copiato negli appunti