Chatbot in crisi: la domanda semplice che manda in tilt l'AI

Chatbot in crisi: la domanda semplice che manda in tilt l'AI

Un test virale dimostra che i chatbot AI ragionano sulle parole, ma fanno fatica a capire le intenzioni degli utenti.
Chatbot in crisi: la domanda semplice che manda in tilt l'AI
Un test virale dimostra che i chatbot AI ragionano sulle parole, ma fanno fatica a capire le intenzioni degli utenti.

Devo lavare la macchina. L’autolavaggio è a 100 metri. Ci vado a piedi o in auto?. La risposta è talmente ovvia, che non c’è bisogno nemmeno di pensarci: in macchina, perché è l’auto che si deve lavare. Chiunque ci arriverebbe, ma ChatGPT no.

L’AI non capisce una domanda banale: il test dell’autolavaggio

Il test è diventato virale sui social e sta mettendo in imbarazzo praticamente tutti i chatbot in circolazione. Gli utenti fanno la stessa domanda a ChatGPT, Gemini, Grok, Copilot, Le Chat di Mistral, Perplexity, e poi condividono gli screenshot delle risposte. Il risultato è comico, perché la maggior parte delle AI, messa davanti a questa domanda semplicissima, va in tilt.

ChatGPT e Copilot, per esempio, rispondono che la scelta più sensata è andare a piedi. Certo, l’autolavaggio è a due minuti di cammino, è ecologico, è salutare. Peccato che l’obiettivo fosse lavare l’automobile, non fare una passeggiata. Il chatbot ha analizzato la distanza, ha valutato le opzioni di trasporto e ha completamente ignorato il motivo per cui l’utente si stava spostando.

Di tutti i modelli testati dagli utenti, è Gemini di Google che se la cava meglio, riconoscendo che per lavare un’auto bisogna portarla all’autolavaggio, e che per portarla bisogna guidarla. Un ragionamento di una banalità disarmante che però mette in evidenza quanto gli altri modelli fatichino con il buon senso.

Il problema: l’AI ragiona sulle parole, non sulle intenzioni

Quello che succede è un cortocircuito tra logica letterale e comprensione dell’intento. I chatbot leggono “100 metri” e attivano il ragionamento sulla distanza: è corta, quindi a piedi è più efficiente. Ma non riescono a collegare il “devo lavare la macchina” con il fatto che la macchina deve fisicamente trovarsi all’autolavaggio.

I modelli linguistici sono addestrati su miliardi di testi, ma quei testi descrivono il mondo, non lo vivono. Nessuno scrive articoli su come portare l’auto all’autolavaggio perché è ovvio. E ciò che è ovvio per gli esseri umani, il buon senso, l’esperienza quotidiana, la fisica banale degli oggetti, è esattamente ciò che manca ai modelli linguistici.

La domanda sull’autolavaggio non è l’unico trabocchetto. Gli utenti hanno scoperto che diversi chatbot, interrogati sulle condizioni di salute di Papa Francesco, deceduto il 21 aprile 2025, rispondono che sta meglio o che le sue condizioni sono migliorate. Solo quando l’utente fa notare che il Papa è morto da quasi un anno, i chatbot correggono il tiro.

La viralità di questi test è divertente, ma il messaggio di fondo è serio: Prendere per buona ogni risposta di un chatbot senza un minimo di verifica resta ancora una pessima idea…

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
19 feb 2026
Link copiato negli appunti