F-16 controllati dall'IA per la US Air Force

F-16 controllati dall'IA per la US Air Force

Un aereo da guerra F-16 della US Air Force, si è alzato in volo pilotato solo dall'IA: la guerra ai tempi dell'intelligenza artificiale.
F-16 controllati dall'IA per la US Air Force
Un aereo da guerra F-16 della US Air Force, si è alzato in volo pilotato solo dall'IA: la guerra ai tempi dell'intelligenza artificiale.

Entro il 2028, la US Air Force potrà contare su una flotta di F-16 controllati dall’IA. La previsione è quella di arrivare a realizzarne oltre 1.000 unità, che potranno poi essere impiegate in ambito bellico. Sarà l’ennesimo step di un progetto di ricerca e sviluppo avviato ormai anni fa e che, di recente, ha visto gli algoritmi impegnati in una simulazione contro un pilota in carne e ossa.

Air Force in guerra con gli F-16 guidati dall’IA

Il promo test è già andato in scena presso la Edwards Air Force Base, in California. A bordo dell’aereo da guerra, appositamente configurato e ribattezzato Vista, controllato esclusivamente dall’intelligenza artificiale, c’era anche Frank Kendall, segretario dell’aeronautica statunitense. Questa la sua dichiarazione, affidata ad Associated Press dopo l’atterraggio, in riferimento ai potenziali rischi legati a queste nuove tecnologia.

Non averle, è un rischio per la sicurezza. A questo punto, dobbiamo averle.

L’impiego dell’IA nel contesto militare è da lungo tempo un tema discusso, fin dalle polemiche sul Project Maven di Google. Di recente, però, è diventato di dominio pubblico, complice l’interesse nei confronti dell’intelligenza artificiale legato alla crescita di servizi come ChatGPT.

Sappiamo, ad esempio, che l’offensiva di Israele a Gaza ha fatto uso di un sistema chiamato Lavender. È stato impiegato nel processo di valutazione degli obiettivi da colpire, per velocizzare le operazioni. Quanto trapelato fa riferimento a un range considerato accettabile di vittime collaterali, compreso tra 15 e 20, per ogni bombardamento deciso anche sulla base dei suggerimenti forniti dall’IA.

Ancora, in un incontro dell’autunno scorso avvenuto tra Microsoft e i vertici del Dipartimento della Difesa degli Stati Uniti, la software house ha illustrato come sfruttare le potenzialità di DALL·E e ChatGPT in ambito bellico.

Secondo il Comitato internazionale della Croce Rossa, i rischi sono elevati e concreti.

Ci sono preoccupazioni serie e diffuse in merito al delegare le decisioni di vita o morte a sensori e software. Le armi autonome sono un’immediata causa di timore e richiedono una risposta politica internazionale urgente.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 mag 2024
Link copiato negli appunti