Molti romanzi della letteratura sci-fi e un numero imprecisato di film fantascientifici dipingono futuri distopici in cui l’essere umano è in grado di sopravvivere alla morte fisica, o quantomeno di trascenderla, attraverso ciò che può essere definito una sorta di backup della sua esistenza, da estrarre e reiterare quando necessario. Una premessa indispensabile per raccontare storie avveniristiche tra le pagine di un libro, così come sul piccolo e grande schermo. E se invece fosse davvero possibile, un giorno?
Un’intera vita dentro l’AI
A dipingere uno scenario non troppo differente, in ugual modo affascinante e inquietante, è Sam Altman, numero uno di OpenAI. In occasione di un evento sull’intelligenza artificiale organizzato nelle scorse settimane da Sequoia Capital, qualcuno gli ha chiesto come ChatGPT possa diventare ancora più personalizzato, su misura per l’utente. La risposta del CEO non si è fatta attendere: ricordando tutto ciò che accade in una vita. Riportiamo di seguito le sue parole in forma tradotta.
L’ideale è un piccolissimo modello di ragionamento con un trilione di token di contesto in cui si investe tutta la propria vita. Questo modello può ragionare su tutto il contesto e farlo in modo efficiente. E ogni conversazione che hai avuto nella tua vita, ogni libro che hai letto, ogni email che hai letto, tutto ciò che hai guardato è lì, oltre a essere connesso a tutti i tuoi dati provenienti da altre fonti. E la tua vita continua ad aggiungersi al contesto.
Nuove funzionalità del chatbot introdotte nell’ultimo periodo, a partire da quelle relative alla memoria persistente, sembrano andare in questa direzione.
Sogno hi-tech o incubo distopico?
Quello che i più entusiasti sostenitori del progresso hi-tech (e i vertici dell’organigramma OpenAI) possono interpretare come un sogno utopico e pioneristico, per molti altri ha i connotati di un incubo che si trasforma in realtà, con notevoli implicazioni anche sul fronte della privacy.
Considerando i problemi mai risolti legati all’utilizzo delle informazioni per l’addestramento dei modelli, il fenomeno delle allucinazioni dell‘intelligenza artificiale e le ricadute sulla tutela dei dati, non siamo certi di voler vedere tanto presto tecnologie degne di un episodio di Black Mirror (San Junipero), a maggior ragione nelle mani di una realtà privata.