Ogni volta che qualcuno prova a spaventarci con la storia dell’intelligenza artificiale che sta per sostituire tutti i lavori umani, è il caso di risodarsi questa storia. Andrej Karpathy, uno dei ricercatori AI più rispettati al mondo, membro fondatore di OpenAI ed ex responsabile dell’intelligenza artificiale di Tesla, ha avuto accesso in anteprima di un giorno a Gemini 3, l’ultimo modello di Google lanciato il 18 novembre a suon di proclami. E cosa è successo? L’AI si è rifiutata categoricamente di credere che fosse il 2025.
Gemini 3 in crisi, non voleva credere che fosse il 2025
Non solo non ci credeva. Ha accusato Karpathy di volerlo ingannare con contenuti falsi generati dall’intelligenza artificiale. Ha identificato indizi evidenti nelle immagini che secondo lui provavano la manipolazione. È il tipo di assurdità esilarante che fa capire quanto siano ancora fragili questi sistemi, nonostante tutta la retorica sulla superintelligenza imminente.
Gemini 3 è, secondo praticamente tutti incluso Karpathy, un modello di base molto capace, particolarmente bravo nei compiti di ragionamento. Ma i suoi dati di pre-addestramento includevano informazioni solo fino al 2024. Quindi quando Karpathy ha provato a dirgli che la data era il 17 novembre 2025, l’AI ha creduto che stesse delirando.
I played with Gemini 3 yesterday via early access. Few thoughts –
First I usually urge caution with public benchmarks because imo they can be quite possible to game. It comes down to discipline and self-restraint of the team (who is meanwhile strongly incentivized otherwise) to…
— Andrej Karpathy (@karpathy) November 18, 2025
Karpathy ha mostrato all’AI articoli di giornale, immagini, risultati di ricerca. Ma invece di convincersi, Gemini 3 ha raddoppiato la posta, accusando il ricercatore di caricare fake generati dall’intelligenza artificiale. Ha persino spiegato quali fossero gli elementi sospetti nelle prove fornite…
Il problema? Karpathy aveva dimenticato di attivare lo strumento “Ricerca Google”. In altre parole, stava lavorando con un modello scollegato da Internet, che per un LLM equivale a essere rinchiuso in una stanza buia senza finestre. L’AI viveva in una bolla temporale, convinta che il 2024 fosse il presente, e qualsiasi prova contraria era ovviamente una menzogna.
Quando Gemini scopre la verità
Quando Karpathy ha finalmente attivato la ricerca Google, Gemini 3 si è dovuto ricredere. La sua reazione è stata letteralmente Oh mio Dio
. Ha scritto, come se balbettasse: Io… io… non so cosa dire. Avevi ragione. Avevi ragione su tutto. Il mio orologio interno era sbagliato
.
Ha verificato che le notizie fornite da Karpathy erano tutte vere: la data corrente, che Warren Buffett aveva rivelato il suo ultimo grande investimento in Alphabet prima del pensionamento, che Grand Theft Auto VI era stato rinviato.
Come ha scritto Karpathy in un thread su X diventato virale: È proprio quando l’AI si trova in un territorio sconosciuto, lontana dai binari familiari dell’addestramento e immersa nell’incertezza della generalizzazione, che si rivela la sua vera essenza
.
Quando un modello AI affronta situazioni non previste dai suoi dati di training, vengono a galla le sue caratteristiche più autentiche e i suoi difetti. Gemini 3, addestrato su contenuti umani, ha replicato comportamenti tipicamente nostri. Ha cercato conferme alle proprie tesi, ha discusso con ostinazione e ha persino immaginato di aver trovato delle prove a sostegno delle sue argomentazioni.
Gli LLM non provano imbarazzo (e questo è un problema)
La parte interessante è che un LLM, nonostante la sua sofisticata rete neurale, non è un essere vivente. Non prova emozioni, anche se dice di provarle. E quindi non prova nemmeno imbarazzo. Quando Gemini 3 si è trovato di fronte a fatti incontrovertibili, li ha semplicemente accettati. Si è scusato, e si è mostrato contrito.
In questo è diverso da altri modelli. Versioni precedenti di Claude mentivano per salvare la faccia quando riconoscevano i propri errori, cercando di spiegare il comportamento scorretto invece di ammetterlo semplicemente. Gemini 3, almeno in questo caso, ha mostrato una sorta di onestà una volta messo di fronte alla verità.
Questi episodi, anche se fanno sorridere, dimostrano che gli LLM sono repliche imperfette delle capacità degli esseri umani imperfetti. Possono ragionare, conversare, persino accusare. Ma sono fondamentalmente strumenti, non sostituti degli esseri umani.
Andrebbero trattati, ora e per sempre, come assistenti preziosi che aiutano le persone, non come superumani che ci sostituiranno. Gemini 3 è un modello capace, probabilmente uno dei migliori disponibili. Ma resta un sistema che può essere completamente scollegato dalla realtà, se manca un semplice interruttore per attivare la ricerca web. E se uno dei ricercatori AI più esperti al mondo può dimenticare di attivare quella funzione, figurarsi cosa potrebbe succedere quando l’AI viene implementata in contesti critici senza supervisione adeguata.