L'IA non può lanciare un attacco nucleare

L'IA non può lanciare un attacco nucleare

Una proposta di legge presentata negli Stati Uniti vieta la creazione di sistemi che possano lanciare armi nucleari con l'intelligenza artificiale.
L'IA non può lanciare un attacco nucleare
Una proposta di legge presentata negli Stati Uniti vieta la creazione di sistemi che possano lanciare armi nucleari con l'intelligenza artificiale.

Quattro politici statunitensi (repubblicani e democratici) hanno presentato una proposta di legge, denominata Block Nuclear Launch by Autonomous Artificial Intelligence Act, che vieta l’uso di un’intelligenza artificiale per lanciare armi nucleari senza il controllo umano. I legislatori temono che il rapido sviluppo della tecnologia possa portare a conseguenze catastrofiche, come quelle viste in numerosi film di fantascienza o distopici.

WOPR e Skynet non devono esistere

Il Dipartimento della Difesa degli Stati Uniti ha già stabilito che l’eventuale uso di armi nucleari deve prevedere sempre un intervento umano. L’obiettivo della proposta di legge è codificare le regole esistenti, tenendo conto della raccomandazione della commissione sull’intelligenza artificiale.

Nessun fondo federale può essere usato per creare un sistema di lancio automatizzato. In pratica, gli Stati Uniti non dovranno sviluppare un’intelligenza artificiale in grado di avviare un attacco nucleare, come WOPR e Skynet dei film Wargames e Terminator.

Uno dei firmatari della proposta di legge ha dichiarato:

La tecnologia IA si sta sviluppando ad un ritmo estremamente rapido. Mentre cerchiamo di affrontare il ritmo con cui l’IA sta accelerando, il futuro dell’IA e il suo ruolo nella società rimangono poco chiari. È nostro compito come membri del Congresso avere una lungimiranza responsabile quando si tratta di proteggere le generazioni future da conseguenze potenzialmente devastanti. Ecco perché sono lieto di presentare il Block Nuclear Launch by Autonomous AI Act che garantirà che, qualunque cosa accada in futuro, un essere umano ha il controllo sull’impiego di un’arma nucleare, non un robot. L’intelligenza artificiale non può mai sostituire il giudizio umano quando si tratta di lanciare armi nucleari.

La proposta di legge vuole evidenziare i rischi derivanti dallo sviluppo incontrollato dell’intelligenza artificiale. Attualmente non c’è nessun pericolo, ma sono noti a tutti i difetti dei modelli IA generativi. In alcuni casi possono fornire risposte (allucinazioni o confabulazioni), per le quali non sono stati addestrati. Alcuni sviluppatori hanno già creato una IA autonoma.

Fonte: Ed Markey
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 30 apr 2023
Link copiato negli appunti