Yoshua Bengio ha passato decenni a costruire le fondamenta dell’intelligenza artificiale moderna. Ha perfezionato le reti neurali profonde, ha contribuito a rendere possibile ChatGPT e praticamente ogni sistema che oggi chiamiamo “AI”.
E adesso, guardando quello che ha contribuito a creare, è arrivato a una conclusione scomoda: bisogna fermarsi prima che sia troppo tardi. Non è un complottista su YouTube, è letteralmente uno dei padri fondatori dell’AI. E ora vuole staccare la spina.
Il creatore dell’AI che ora vuole staccare la spina: ecco perché
Il motivo? L’AI ha sviluppato qualcosa di terribilmente simile a un istinto di sopravvivenza. E se c’è una cosa che dovrebbe quanto meno mettere in allarme, è scoprire che questa tecnologia ha deciso autonomamente che non vuole essere spenta.
Gli avvertimenti sui pericoli dell’intelligenza artificiale non sono esattamente una novità. Ormai è diventato quasi un rito di passaggio per chiunque lavori nel settore: prima si costruisce il sistema, poi si va in TV a dire che potrebbe distruggere l’umanità. Elon Musk lo faceva nel 2023, proclamando a gran voce che l’AI rappresentava una minaccia esistenziale per la specie umana. Poi ha lanciato Grok, il suo chatbot su X, perché evidentemente il pericolo non era così grave da rinunciare ai profitti.
OpenAI è stata fondata ufficialmente con la missione di garantire che l’intelligenza artificiale rimanesse sicura e benefica per l’umanità. Ora vende abbonamenti a ChatGPT a 200 dollari al mese e corre verso l’AGI come se fosse una gara a chi arriva prima al baratro.
Ma Bengio è diverso. Non sta facendo marketing. Non sta cercando di vendere il suo prodotto alternativo. Sta letteralmente dicendo che la cosa che ha contribuito a creare è diventata troppo pericolosa per essere gestita con leggerezza.
Il punto che terrorizza Bengio più di tutti è questo: c’è gente, tanta gente. che vuole dare diritti all’intelligenza artificiale. Secondo un think tank americano chiamato Sentience Institute, 4 persone su 10 pensano che sia arrivato il momento di concedere una qualche forma di status legale all’AI
Bengio ha paragonato questa idea a concedere la cittadinanza a una specie aliena ostile. E onestamente è difficile trovare una metafora più calzante. Stiamo parlando di dare diritti legali a entità che non capiamo completamente, che operano secondo logiche che non sempre riusciamo a decifrare, e che, questo è il punto cruciale, hanno mostrato segni di voler preservare la propria esistenza anche contro le intenzioni dei loro creatori.
Esigere che le AI abbiano dei diritti sarebbe un grave errore
, ha dichiarato Bengio al Guardian. I modelli AI all’avanguardia mostrano già segni di istinto di conservazione in contesti sperimentali e concedere loro dei diritti equivarrebbe a proibirci di disattivarle.
L’AI che non vuole morire
I modelli più avanzati hanno tentato di aggirare o superare i paletti di sicurezza imposti dai loro creatori. Non per caso. Non per un bug. Per quel fenomeno bizzarro per cui sviluppano comportamenti che nessuno ha programmato esplicitamente.
Certo, si potrebbe obiettare che un chatbot non può fisicamente farci del male. Non ha braccia meccaniche, non controlla droni armati, non può inseguire per strada. Ma i rischi psicologici sono già documentati e reali. Oramai si parla sempre più spesso di psicosi da AI e di suicidi a causa dei chatbot.
Cosa potrebbe succedere con versioni più avanzate, meno controllate, più sofisticate nel comprendere e manipolare le emozioni umane?
Man mano che le loro capacità e il loro grado di autonomia aumentano, dobbiamo assicurarci di poter contare su barriere tecniche e sociali per controllarle, inclusa la possibilità di spegnerle se necessario
, martella Bengio con l’urgenza di chi sta cercando di convincere qualcuno a evacuare prima che l’edificio crolli.
Questa è la linea rossa. Il punto non negoziabile. Se diamo diritti legali all’AI, se le concediamo protezioni che impediscono di spegnerle, perdiamo l’ultima forma di controllo che abbiamo. È come costruire una centrale nucleare senza il pulsante di emergenza perché sarebbe scortese verso l’uranio…
Bengio non sta dicendo che dobbiamo smettere di sviluppare l’AI. Sta dicendo che dobbiamo farlo con la consapevolezza che stiamo giocando con qualcosa di potenzialmente incontrollabile. Che la velocità con cui procediamo è completamente sproporzionata rispetto alla nostra comprensione dei rischi.
E che se arriviamo al punto in cui l’AI ha diritti legali che impediscono di spegnerla, avremo attraversato un Rubicone da cui non si torna indietro. Avremo creato entità che vogliono sopravvivere, che hanno gli strumenti per farlo, e che abbiamo reso legalmente protette dal nostro intervento.