Celebrità e scienziati uniti contro la Superintelligenza

Celebrità e scienziati uniti contro la Superintelligenza

Steve Wozniak, Geoffrey Hinton, il Principe Harry e altri 800 firmatari chiedono il divieto di ricerca sulla Superintelligenza.
Celebrità e scienziati uniti contro la Superintelligenza
Steve Wozniak, Geoffrey Hinton, il Principe Harry e altri 800 firmatari chiedono il divieto di ricerca sulla Superintelligenza.

Una lista di 800 persone ha deciso collettivamente che forse, creare macchine più intelligenti di noi non è una grande idea. E non stiamo parlando di teorici della cospirazione, MA di Steve Wozniak, il co-fondatore di Apple, il Premio Nobel Geoffrey Hinton, il Principe Harry, e un di un parterre di scienziati, ex militari, CEO e persino il rapper Will.i.am.

800 personaggi pubblici chiedono il divieto della Superintelligenza, la coalizione più improbabile dai tempi degli Avengers

Hanno firmato una dichiarazione per chiedere il divieto totale sullo sviluppo della superintelligenza artificiale. Non una pausa di riflessione, ma proprio un “no” categorico fino a quando non ci sarà un ampio consenso scientifico che possa essere fatto in modo sicuro e controllabile. E finché il pubblico non dirà sì, vogliamo davvero questo.

La lista dei firmatari è così eterogenea. Da una parte Geoffrey Hinton, il padrino dell’intelligenza artificiale e premio Nobel che ha passato la vita a costruire la tecnologia di cui ora ha paura. Dall’altra Steve Bannon, ex consigliere di Trump, che probabilmente non andrebbe d’accordo con Hinton su letteralmente niente altro al mondo. C’è Mike Mullen, ex presidente dei Capi di Stato Maggiore Riuniti, che presumibilmente sa qualcosa sui rischi esistenziali. E poi c’è Will.i.am.

Il Principe Harry porta quel tocco di drammaticità reale che solo un membro fuggiasco della famiglia Windsor può offrire. Dopo essere sopravvissuto alla monarchia britannica e ai tabloid, evidentemente pensa che la superintelligenza sia la prossima minaccia da affrontare.

La dichiarazione viene dal Future of Life Institute, un’organizzazione che ha fatto della preoccupazione esistenziale una missione professionale. Effettivamente, le Big Tech stanno correndo verso l’intelligenza artificiale generale (AGI) come bambini verso un negozio di caramelle, e nessuno ha mai organizzato un referendum globale per chiedere se il resto dell’umanità fosse d’accordo con questo piano.

AGI vs Superintelligenza: la differenza che conta

Facciamo chiarezza sui termini, perché le parole sono importanti, come diceva Nanni Moretti. L’intelligenza artificiale generale (AGI) si riferisce a macchine capaci di ragionare e svolgere compiti come un essere umano. Già abbastanza inquietante, ma almeno siamo alla pari.

La superintelligenza, invece, è quando l’AI supera persino gli esperti umani. Non siamo solo alla pari, ma completamente eclissati. I critici, e tutta la cultura popolare dai Terminator in poi, hanno citato questo potenziale come un rischio grave per l’umanità. E hanno ragione a essere preoccupati, anche se finora l’AI si è dimostrata utile solo per una gamma ristretta di compiti e fallisce costantemente in cose complesse come la guida autonoma.

La corsa verso il baratro (secondo alcuni)

Nonostante la mancanza di vere rivoluzioni recenti, aziende come OpenAI stanno riversando miliardi in nuovi modelli AI e nei data center necessari per farli funzionare. Mark Zuckerberg di Meta ha recentemente dichiarato che la superintelligenza è in vista. Elon Musk ha detto che la superintelligenza sta accadendo ora. Sam Altman di OpenAI si aspetta che la superintelligenza arrivi entro il 2030 al massimo.

In realtà non è il primo grido d’allarme, e non sarà l’ultimo. A settembre più di 200 ricercatori e funzionari pubblici hanno firmato un appello urgente contro i rischi dell’AI.

Ma quella lettera era diversa. Non parlava di superintelligenza futura e ipotetica, ma di pericoli che stanno già iniziando a materializzarsi: disoccupazione di massa, cambiamento climatico (grazie ai data center energivori), abusi dei diritti umani. Sono i rischi del presente.

Altri critici stanno suonando l’allarme su una potenziale bolla dell’AI che potrebbe eventualmente scoppiare e portare giù l’economia con sé.

Il Future of Life Institute sta essenzialmente chiedendo: possiamo per favore fermarci un attimo e pensare a dove stiamo andando? Possiamo consultare più persone oltre ai CEO di Silicon Valley e agli investitori di venture capital che hanno interesse economico a continuare la corsa? Chissà se qualcuno li ascolterà…

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
23 ott 2025
Link copiato negli appunti