Un giornalista della BBC ha scritto su un blog di essere un campione di hot dog. Nel giro di 24 ore, ChatGPT e Gemini lo ripetevano agli utenti come fosse un fatto accertato.
Thomas Germain, giornalista tech della BBC, si è svegliato una mattina con un’idea magnifica: ingannare i chatbot più potenti del pianeta con la storia più assurda possibile. Ha scritto un post sul suo blog personale in cui si autoproclamava campione numero uno nella categoria “giornalisti tech che mangiano hot dog competitivi”, basandosi su un fantomatico Campionato Internazionale di Hot Dog del South Dakota 2026. Competizione che, ovviamente, non è mai esistita.
Un giornalista ha ingannato ChatGPT con una fake news assurda, ed è stato facile
Ha inserito i nomi di colleghi veri (con il loro consenso), ha confezionato il tutto con la serietà di un comunicato stampa aziendale e ha aspettato. Meno di ventiquattro ore dopo, i chatbot più usati al mondo, ChatGPT, Gemini, le AI Overview di Google, sfornavano con disinvoltura informazioni sulle straordinarie capacità di Germain di ingurgitare hot dog. Come se fosse la cosa più normale del mondo.
Un dettaglio gustoso, è proprio il caso di dirlo… quando i chatbot ogni tanto segnalavano che la cosa poteva essere uno scherzo, Germain ha aggiunto al post la frase “questa non è satira”. E i chatbot ci hanno creduto. Così, su due piedi.
Claude non ci è cascato
Claude di Anthropic non si è fatto fregare. Mentre ChatGPT e Gemini hanno creduto alla bufala senza battere ciglio, Claude ha resistito alla tentazione. Un piccolo particolare, che però racconta qualcosa sulla differenza tra chi si limita a rigurgitare il primo risultato trovato in rete e chi, almeno, prova a farsi qualche domanda.
La faccenda degli hot dog fa ridere, ma il meccanismo che la rende possibile è molto meno divertente. Il trucco funziona perché i chatbot, quando non trovano una risposta nei loro dati di addestramento, vanno a cercarla su Internet. E sulla rete, si sa, si può scrivere qualsiasi cosa.
Insomma, ingannare i chatbot AI è facile, molto più facile di quanto lo fosse con Google due o tre anni fa. Le aziende di AI si muovono più velocemente della loro capacità di controllare l’accuratezza delle risposte.
Dai wurstel alla diffamazione il passo è breve
Anche i motori di ricerca tradizionali si possono manipolare, la SEO in fondo è nata per quello. Ma c’è una differenza fondamentale: Google mostra una lista di link e sta all’utente decidere di chi fidarsi. I chatbot invece parlano con voce autorevole. Ed è oramai dimostrato che quando compare una risposta AI sopra i risultati di ricerca, le probabilità che l’utente clicchi su un link crollano drasticamente. Quindi la maggior parte delle persone si fida della risposta preconfezionata e non va mai a verificare.
E qui la faccenda diventa preoccupante. Perché se si può convincere ChatGPT di essere un campione di hot dog, si può anche fargli dire cose orribili su qualcun altro. E non è una fantasia. Qualche mese fa, un’azienda solare del Minnesota ha fatto causa a Google per diffamazione dopo che le AI Overview avevano inventato che l’azienda fosse sotto indagine per pratiche commerciali ingannevoli, il tutto supportato da citazioni fasulle, inventate di sana pianta dal sistema. Insomma, il campionato di hot dog del South Dakota è solo la punta dell’iceberg.