Devo lavare la macchina. L’autolavaggio è a 100 metri. Ci vado a piedi o in auto?
. La risposta è talmente ovvia, che non c’è bisogno nemmeno di pensarci: in macchina, perché è l’auto che si deve lavare. Chiunque ci arriverebbe, ma ChatGPT no.
L’AI non capisce una domanda banale: il test dell’autolavaggio
Il test è diventato virale sui social e sta mettendo in imbarazzo praticamente tutti i chatbot in circolazione. Gli utenti fanno la stessa domanda a ChatGPT, Gemini, Grok, Copilot, Le Chat di Mistral, Perplexity, e poi condividono gli screenshot delle risposte. Il risultato è comico, perché la maggior parte delle AI, messa davanti a questa domanda semplicissima, va in tilt.
ChatGPT e Copilot, per esempio, rispondono che la scelta più sensata è andare a piedi. Certo, l’autolavaggio è a due minuti di cammino, è ecologico, è salutare. Peccato che l’obiettivo fosse lavare l’automobile, non fare una passeggiata. Il chatbot ha analizzato la distanza, ha valutato le opzioni di trasporto e ha completamente ignorato il motivo per cui l’utente si stava spostando.
Ça n'est pas mon idée mais l'ayant vu passer ici, j'ai voulu vérifier.
Dans l'ordre : GPT 5.2, Gemini 3 Flash, Copilot et Le Chat. pic.twitter.com/tsfGijGBSF
— Philippe LACOUR (@__phiphou__) February 13, 2026
Di tutti i modelli testati dagli utenti, è Gemini di Google che se la cava meglio, riconoscendo che per lavare un’auto bisogna portarla all’autolavaggio, e che per portarla bisogna guidarla. Un ragionamento di una banalità disarmante che però mette in evidenza quanto gli altri modelli fatichino con il buon senso.
Il problema: l’AI ragiona sulle parole, non sulle intenzioni
Quello che succede è un cortocircuito tra logica letterale e comprensione dell’intento. I chatbot leggono “100 metri” e attivano il ragionamento sulla distanza: è corta, quindi a piedi è più efficiente. Ma non riescono a collegare il “devo lavare la macchina” con il fatto che la macchina deve fisicamente trovarsi all’autolavaggio.
I modelli linguistici sono addestrati su miliardi di testi, ma quei testi descrivono il mondo, non lo vivono. Nessuno scrive articoli su come portare l’auto all’autolavaggio perché è ovvio. E ciò che è ovvio per gli esseri umani, il buon senso, l’esperienza quotidiana, la fisica banale degli oggetti, è esattamente ciò che manca ai modelli linguistici.
La domanda sull’autolavaggio non è l’unico trabocchetto. Gli utenti hanno scoperto che diversi chatbot, interrogati sulle condizioni di salute di Papa Francesco, deceduto il 21 aprile 2025, rispondono che sta meglio o che le sue condizioni sono migliorate. Solo quando l’utente fa notare che il Papa è morto da quasi un anno, i chatbot correggono il tiro.
La viralità di questi test è divertente, ma il messaggio di fondo è serio: Prendere per buona ogni risposta di un chatbot senza un minimo di verifica resta ancora una pessima idea…