I CEO della Silicon Valley ci raccontano che siamo a un passo dalla creazione di macchine pensanti, superintelligenze artificiali capaci di risolvere cambiamento climatico e tutti i problemi del mondo. Ma secondo un esperto c’è un problema di fondo: si sta confondendo la capacità di parlare bene con la capacità di pensare davvero.
Perché i modelli linguistici non raggiungeranno mai l’AGI
Benjamin Riley, fondatore della venture Cognitive Resonance, ha scritto un saggio molto interessante per The Verge. Il succo? Gli LLM, quei modelli linguistici di grandi dimensioni su cui l’intera industria dell’AI sta scommettendo miliardi, non diventeranno mai davvero intelligenti. Non importa quanti data center si costruiscono, quanti zeri si aggiungono al budget. Linguaggio non è sinonimo di pensiero, e questa distinzione apparentemente banale smonta l’intero castello di carte dell’intelligenza artificiale generale.
Noi umani abbiamo un bias cognitivo piuttosto radicato: tendiamo ad associare la parlantina sciolta all’intelligenza. Qualcuno che scrive bene, che parla con eloquenza, che cesella le parole come un saro dev’essere per forza intelligente, no? È il motivo per cui restiamo affascinati da oratori e scrittori, è il motivo per cui ChatGPT sembra così maledettamente convincente quando risponde con paragrafi perfettamente strutturati (anche quando inventa di sana pianta).
Ma le neuroscienze moderne raccontano una storia diversa. Il pensiero umano, quello vero, è in gran parte indipendente dal linguaggio. Usiamo il linguaggio per pensare, certo, ma questo non rende il linguaggio uguale al pensiero. E su questa confusione fondamentale poggia l’intera narrativa dell’AGI, quell’intelligenza artificiale generale onnisciente che dovrebbe eguagliare o superare la cognizione umana.
Gli LLM sono semplicemente strumenti che emulano la funzione comunicativa del linguaggio, non il processo cognitivo separato e distinto del pensiero e del ragionamento
, scrive Riley con una chiarezza che taglia come un bisturi.
Che linguaggio e pensiero siano processi separati non è un’ipotesi, lo confermano decenni di neuroscienze. Le risonanze magnetiche funzionali lo dimostrano, quando facciamo calcoli il cervello attiva zone diverse da quelle usate per elaborare il linguaggio. Ma la prova più schiacciante viene dalle persone che perdono la parola dopo un ictus o un incidente. Il loro pensiero resta praticamente intatto, riescono a risolvere problemi, seguire istruzioni non verbali, capire le emozioni altrui. Il linguaggio se n’è andato, il pensiero è rimasto. Il che dimostra, abbastanza inequivocabilmente, che le due abilità non sono la stessa cosa.
Ciò significa che gli LLM, per quanto bravi a generare testo, stanno lavorando su un piano completamente diverso rispetto all’intelligenza vera.
Anche i big dell’AI sono scettici
Persino nel tempio dell’intelligenza artificiale ci sono degli eretici. Il più famoso è Yann LeCun, vincitore del Premio Turing e una delle figure fondanti dell’AI moderna. Da anni sostiene che gli LLM non raggiungeranno mai l’intelligenza generale. Secondo l’esperto, servono modelli “mondiali”, sistemi addestrati su dati fisici tridimensionali, non solo su montagne di testo.
E non è solo LeCun a essere scettico. Una ricerca pubblicata sul Journal of Creative Behavior ha usato formule matematiche per determinare i limiti della creatività degli LLM, con risultati piuttosto deprimenti. Siccome questi sistemi sono probabilistici, raggiungono un punto oltre il quale non possono più generare output veramente nuovi e unici senza scivolare nel nonsense.
Perciò no scrittore esperto, un artista vero, un designer con anni di esperienza possono occasionalmente produrre qualcosa di veramente originale ed efficace. Un LLM? Mai. Produrrà sempre qualcosa di mediocre. E se le industrie si affideranno troppo a questa tecnologia, finiranno sommerse da lavoro stereotipato e ripetitivo.
Il che getta un’ombra piuttosto lunga sulle promesse messianiche dei CEO dell’AI. Come potrà inventare una “nuova fisica”, come sostiene Elon Musk, o risolvere la crisi climatica, come suggerisce Sam Altman, se la tecnologia fatica a mettere insieme frasi che non siano basate su testi preesistenti? Come può un sistema che per definizione può solo remixare e riciclare conoscenze esistenti creare qualcosa di genuinamente nuovo?
Sì, un sistema ai potrebbe remixare e riciclare le nostre conoscenze in modi interessanti
, conclude Riley. Ma questo è tutto ciò che sarà in grado di fare. Rimarrà per sempre intrappolato nel vocabolario che abbiamo codificato nei nostri dati e su cui l’abbiamo addestrato
.