DeepMind, ricerca sulla sicurezza dell'AGI non convince

DeepMind, ricerca sulla sicurezza dell'AGI non convince

La ricerca di DeepMind sulla sicurezza dell'AGI non sembra convincere del tutto la comunità degli esperti più scettici.
DeepMind, ricerca sulla sicurezza dell'AGI non convince
La ricerca di DeepMind sulla sicurezza dell'AGI non sembra convincere del tutto la comunità degli esperti più scettici.

Google DeepMind ha pubblicato un documento mastodontico sulla sua strategia per rendere sicura l’AGI, l’intelligenza artificiale generale in grado di svolgere qualsiasi compito umano (come e meglio di noi). Un tema controverso che spacca il mondo in due.

C’è chi sostiene che l’AGI sia solo una chimera, un traguardo irraggiungibile. Altri, come Anthropic, avvertono che è dietro l’angolo e potrebbe causare danni catastrofici se non si adottano le giuste precauzioni.

DeepMind lancia l’allarme: AGI entro il 2030, rischi “gravi” per l’umanità

Il paper di DeepMind prevede l’arrivo dell’AGI entro il 2030. Gli autori parlano di possibili “danni gravi“, senza specificare scenari concreti, ma citando come esempio estremo “rischi esistenziali” che potrebbero “distruggere l’umanità per sempre“.

Il paper esprime dubbi sulla fattibilità dell’AI superintelligente. OpenAI ha recentemente dichiarato di puntare proprio su questo obiettivo, ma per DeepMind, senza innovazioni architetturali radicali, i sistemi superintelligenti non emergeranno presto, ammesso che lo facciano mai.

Tuttavia, gli autori ritengono plausibile uno scenario diverso ma altrettanto preoccupante: l‘auto-miglioramento ricorsivo dell’AI. In questo caso, l’AI non avrebbe bisogno di un salto architetturale improvviso, ma potrebbe accelerare la propria evoluzione conducendo autonomamente ricerche e migliorandosi progressivamente. E questo potrebbe essere incredibilmente pericoloso.

DeepMind individua quattro aree di rischio principali per l’AGI: abuso, disallineamento, incidenti e rischi strutturali. Al momento, l’attenzione si concentra soprattutto sulle prime due. Per prevenire un uso malevolo dell’AI, l’azienda ha introdotto un framework di valutazione della cybersicurezza, controlli di accesso e protezioni contro gli attacchi informatici.

Dobbiamo prepararci all’avvento dell’AGI?

Non tutti gli esperti sono d’accordo con le premesse del paper. C’è chi ritiene che il concetto di AGI sia troppo vago per essere valutato rigorosamente dal punto di vista scientifico, altri non credono che il miglioramento ricorsivo dell’AI sia realistico al momento. Il vero rischio? L’AI che si autoalimenta con output inaccurati. Con la proliferazione di contenuti generati dall’AI sul web, i modelli di intelligenza artificiale vengono addestrati su dati che non provengono da fonti autentiche, ma da loro stessi.

Questo crea un effetto a catena: le AI finiscono per rielaborare e apprendere dai propri output, che possono contenere errori, distorsioni o vere e proprie allucinazioni, a tutto scapito della qualità e affidabilità delle informazioni. Un rischio che aveva già anticipato per altro, anche Ilya Sutskever.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
3 apr 2025
Link copiato negli appunti