OpenAI ha pubblicato un articolo sul sito ufficiale per evidenziare un rischio piuttosto reale. I modelli di intelligenza artificiale diventano sempre più esperti in biologia, quindi potrebbero essere utilizzati per sviluppare armi. L’azienda californiana ha spiegato come impedirà l’uso dei suoi modelli per questo scopo, annunciando che ospiterà un summit sull’argomento a luglio.
Modelli AI troppo esperti in biologia
OpenAI evidenzia che i modelli AI permettono di accelerare le scoperte scientifiche. In biologia hanno già aiutato gli scienziati a identificare quali nuovi farmaci possono avere maggiori probabilità di successo nella sperimentazione umana. In futuro consentiranno di velocizzare la scoperta di nuovi farmaci, progettare vaccini migliori, creare enzimi per combustibili sostenibili e scoprire nuovi trattamenti per malattie rare.
Allo stesso tempo, le capacità dei modelli AI potrebbero essere sfruttate da malintenzionati per sviluppare armi biologiche. OpenAI ha avviato collaborazioni con il governo statunitense, ricercatori e vari esperti in biosicurezza, armi biologiche e bioterrorismo per implementare misure preventive da applicare durante l’addestramento dei modelli.
Il primo obiettivo è bloccare richieste (prompt) specifiche, I modelli non forniranno quindi risposte dettagliate (istruzioni passo-passo) per la realizzazione di un’arma biologica. Gli input sospetti verranno automaticamente filtrati e in alcuni casi inizierà una verifica umana.
OpenAI vieta l’uso dei modelli per causare danni alle persone. In caso di uso improprio, l’account verrà sospeso e l’utente potrebbe essere denunciato alle forze dell’ordine. Un team di esperti testerà i modelli cercando di aggirare le protezioni. Simuleranno in pratica le azioni dei malintenzionati.
OpenAI ospiterà un summit a luglio per condividere le informazioni sull’uso dei modelli nel campo della biologia, illustrando anche i rischi associati.