IA di Meta trapela online: LLaMA può diventare pericolosa?

IA di Meta trapela online: LLaMA può diventare pericolosa?

Su 4Chan è apparso il codice sorgente di LLaMA, il language model ora sviluppato da Meta: la diffusione prima del lancio costituisce un pericolo?
IA di Meta trapela online: LLaMA può diventare pericolosa?
Su 4Chan è apparso il codice sorgente di LLaMA, il language model ora sviluppato da Meta: la diffusione prima del lancio costituisce un pericolo?

Meta ha annunciato il suo ultimo language model LLaMA due settimane fa circa, anticipando il futuro dell’intelligenza artificiale secondo Mark Zuckerberg e soci. La risposta a ChatGPT e all’analoga soluzione offerta da Microsoft su Bing potrebbe però tardare ad arrivare ora che, a sorpresa, su 4Chan è apparso il codice sorgente di LLaMA. Gli esperti già temono il peggio, compresa un’evoluzione dell’IA firmata Meta per truffe e spam.

Altri problemi per Meta: LLaMA ora è in mano ai malintenzionati

LLaMA è un modello di linguaggio open source che, a prescindere dal recente leak su Internet, sarebbe stato pubblicato in futuro per consentirvi l’accesso all’intera comunità IA, con l’obiettivo finale di “democratizzare l’intelligenza artificiale” e stimolare la ricerca.

Meta

Circa cinque giorni addietro l’azienda statunitense ha ricevuto però una notizia sorprendente: LLaMA è scaricabile via Torrent già oggi. L’esperto di sicurezza informatica Jeffrey Ladish ha dunque avvertito il pubblico del possibile fiume di spam personalizzato a tema, oltre a tentativi di phishing avanzato. Nel frattempo, però, la community del settore ha dato vita a un importante dibattito sul modo corretto di condividere la ricerca in un momento di rapido cambiamento tecnologico.

Il leak è un pericolo o una benedizione?

Al contrario di quanto alcuni esperti temano, Ladish compreso, diversi sviluppatori sostengono che il leak potrebbe rivelarsi la miccia che porterà allo sviluppo di misure aggiuntive di sicurezza per i sistemi IA. In aggiunta, bisogna ammettere che altri modelli linguistici più complessi sono trapelati in rete senza dare origine a nuovi pericoli.

Gli stessi colleghi di The Verge hanno parlato con diversi ricercatori in ambito IA che hanno già scaricato il pacchetto LLaMA non distribuito da Meta, confermando la sua legittimità. La conclusione della discussione? Ora come ora, LLaMA non costituisce un pericolo in quanto è un sistema “grezzo” per il quale servono discrete competenze tecniche al fine di renderlo pienamente funzionante.

Meta

 

La potenza di LLaMA resterà pertanto inaccessibile, per ora, salvo sorprese. Se non altro, il dibattito tra apertura e chiusura dei sistemi IA ora potrà proseguire grazie a questo evento particolare.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 8 mar 2023
Link copiato negli appunti