L’uso dell’intelligenza artificiale per scopi militari permette di velocizzare l’identificazione degli attacchi attraverso la cosiddetta kill chain. La tecnologia non verrà utilizzata per sviluppare armi e quindi uccidere le persone. OpenAI ha recentemente cambiato la policy per consentire alle agenzie militari statunitensi di usare i suoi modelli.
Difesa militare con AI: vantaggi e rischi
Durante un’intervista rilasciata a TechCrunch, Radha Plumb (chief digital e AI officer del Pentagono) ha dichiarato che l’intelligenza artificiale permette al Dipartimento della Difesa di avere un “vantaggio significativo” nell’identificazione, monitoraggio e valutazione delle minacce.
Stiamo ovviamente aumentando i modi in cui possiamo accelerare l’esecuzione della kill chain per consentire ai nostri comandanti di rispondere al momento giusto per proteggere le nostre forze.
Per “kill chain” si intende l’insieme di processi usati dai militari per identificazione, tracciamento ed eliminazione delle minacce. L’intelligenza artificiale generativa viene sfruttata per le fasi di pianificazione e definizione delle strategie. Plumb ha aggiunto:
L’intelligenza artificiale generativa consente di sfruttare l’intera gamma di strumenti a disposizione dei nostri comandanti, ma anche di pensare in modo creativo a diverse opzioni di risposta e potenziali compromessi in un ambiente in cui c’è una potenziale minaccia.
Meta ha sottoscritto un accordo con Lockheed Martin e altre aziende per offrire i modelli Llama alle agenzie della difesa. Anthropic ha firmato un simile accordo con Palantir, mentre OpenAI ha avviato una partnership con Anduril.
Plumb ha sottolineato che il Pentagono non acquista e usa armi completamente autonome, ma c’è sempre una decisione umana. I sistemi autocoscienti, come Skynet, esistono solo nei film di fantascienza. L’esercito israeliano ha sfruttato un sistema AI, denominato Lavender, per la pianificazione degli attacchi contro Hamas.