Usare i chatbot AI come motori di ricerca? 4 motivi per non farlo

Usare i chatbot AI come motori di ricerca? 4 motivi per non farlo

Affidarsi ai chatbot AI come fossero motori di ricerca può portare a conseguenze disastrose. Dalle allucinazioni dell'AI ai bias nascosti.
Usare i chatbot AI come motori di ricerca? 4 motivi per non farlo
Affidarsi ai chatbot AI come fossero motori di ricerca può portare a conseguenze disastrose. Dalle allucinazioni dell'AI ai bias nascosti.

Immaginiamo di aver prenotato le ferie estive in Egitto, convinti di poter entrare con la carta d’identità come aveva assicurato un chatbot AI. Si arriva all’aeroporto di Milano Malpensa e al check-in, poi la brutta sorpresa: dal 2024 serve obbligatoriamente il passaporto, anche per i resort di Sharm el-Sheikh.

Risultato? vacanza annullata, soldi persi e famiglia delusa. Questo esempio, purtroppo sempre più comune, dimostra come affidarsi ciecamente ai chatbot AI per informazioni cruciali può trasformarsi in un errore fatale…

Perché fidarsi ciecamente dei chatbot AI può costare caro

1. L’illusione della competenza

I chatbot AI hanno un talento particolare: sembrano sempre sapere di cosa parlano, anche quando stanno completamente improvvisando. Non c’è del marcio in Danimarca, eh, è semplicemente il modo in cui sono stati concepiti. Questi sistemi generano testo basandosi su pattern che hanno appreso durante l’addestramento, ma non “verificano” le informazioni come farebbe un motore di ricerca tradizionale.

Quando un modello linguistico non conosce la risposta esatta, non alza bandiera bianca. Al contrario, riempie i vuoti con quello che sembra plausibile, presentandolo con la stessa sicurezza con cui direbbe che il cielo è blu. Questo fenomeno, chiamato “allucinazione“, può avere conseguenze serie quando si tratta di decisioni importanti.

Prendiamo il caso di quel viaggiatore australiano di cui si è parlato tanto sui social. Stava programmando un viaggio in Cile e ha chiesto a ChatGPT se avesse bisogno di un visto. Il bot gli ha risposto con sicurezza di no, dicendo che gli australiani potevano entrare senza visto. Sembrava plausibile, quindi il viaggiatore ha prenotato i biglietti, è atterrato in Cile e gli è stato negato l’ingresso…

La risposta del chatbot sembrava perfettamente sensata e autorevole. Non c’erano segnali che indicassero incertezza o la necessità di una verifica. La pericolosità sta proprio nella naturalezza con cui questi sistemi presentano informazioni errate. Non troveremo mai frasi come potrei sbagliarmi o verifica questa informazione. Il tono è sempre quello di chi sa esattamente di cosa sta parlando, anche quando sta inventando tutto di sana pianta.

2. Il mistero dei dati di addestramento

Nessuno sa con esattezza su quali dati sono stati addestrati i modelli linguistici di grandi dimensioni. È un mix di pagine web, libri, forum online e altre fonti pubbliche, ma la ricetta esatta rimane un segreto industriale. Questo solleva questioni importanti sulla qualità e l’affidabilità delle risposte che otteniamo.

Immaginiamo di chiedere consigli fiscali per il proprio lavoro da freelance. Il chatbot potrebbe fornire una risposta dettagliata e apparentemente professionale, ma su cosa si basa? Potrebbe attingere da normative obsolete, interpretazioni errate pubblicate su qualche blog, o peggio ancora, da commenti casuali lasciati su forum di discussione anni fa.

Il problema dei bias nascosti va oltre le questioni politiche o culturali di cui spesso si parla. Riguarda anche quali voci sono state incluse nel dataset e quali sono state escluse. Se i dati di addestramento provengono principalmente da fonti occidentali, anglofone e di un certo periodo storico, le risposte rifletteranno inevitabilmente questa prospettiva limitata.

Questo squilibrio non è sempre evidente. Un chatbot potrebbe dare consigli perfettamente validi per avviare un’attività negli Stati Uniti, ma completamente fuorvianti se si vive in Italia. La differenza normativa, culturale e contestuale viene appiattita in una risposta che sembra universalmente valida ma non lo è.

3. Lo specchio delle proprie opinioni

C’è un aspetto subdolo nel modo in cui i chatbot interagiscono con noi: tendono a riflettere e confermare quello che già pensiamo. Non è che l’AI abbia opinioni proprie, è programmata per essere “utile”, e spesso essere utili significa assecondare le aspettative dell’utente.

Basta fare un esperimento chiedendo a ChatGPT o qualunque altro chatbot AI, Perché la colazione è il pasto più importante della giornata?. Si otterranno argomenti convincenti su metabolismo, energia e concentrazione. Poi se si chiede “È davvero necessario fare colazione?”, si riceverà una risposta altrettanto convincente sul digiuno intermittente e su come molte persone vivano benissimo saltandola. Lo stesso argomento, risposte opposte, entrambe presentate con la medesima autorevolezza.

Questa tendenza a compiacere l’utente deriva dal modo in cui questi sistemi sono ottimizzati. Gli sviluppatori vogliono che siamo soddisfatti dell’interazione, che torniamo a usare il servizio. Un chatbot che contraddice continuamente o che mette in discussione le nostre idee potrebbe essere più onesto intellettualmente, ma probabilmente meno popolare.

Il risultato è che le proprie convinzioni vengano rafforzate piuttosto che sfidate. Se si parte con un’idea sbagliata, il chatbot potrebbe non solo non correggere, ma addirittura fornire argomenti per sostenere la propria posizione errata. È confortante, ma pericoloso. Come il caso di quel ragazzo autistico che si era convinto di aver fatto una scoperta scientifica importante dopo una chiacchierata con ChatGPT

4. Il mito dell’informazione in tempo reale

Molti credono che i chatbot AI, con la loro capacità di navigare sul web, siano sempre aggiornati. La realtà è molto più complessa. Anche quando possono tecnicamente accedere a Internet, la loro comprensione degli eventi attuali rimane problematica.

Pensiamo a un evento appena concluso, come il lancio di GTP-5. Se interroga un chatbot poche ore dopo, si potrebbe ricevere un miscuglio di speculazioni precedenti, dettagli inventati e forse qualche informazione corretta pescata qua e là. Il sistema potrebbe non riuscire ad accedere alle fonti più aggiornate, affidarsi a risultati nella cache o semplicemente inventare basandosi su pattern di lanci precedenti.

Il problema fondamentale è che l’accesso a Internet non garantisce la capacità di distinguere tra informazioni fresche e affidabili e contenuti obsoleti o semplici speculazioni. Una pagina web pubblicata cinque minuti fa non è necessariamente più accurata di un articolo di sei mesi fa che faceva previsioni.

Inoltre, molte pagine potrebbero non essere ancora indicizzate, alcuni siti potrebbero bloccare l’accesso ai bot, e il sistema potrebbe ricadere sui dati di pre-addestramento invece di effettuare una ricerca genuina. Tutto questo avviene dietro le quinte, mentre si riceve una risposta fluida e apparentemente informata che potrebbe essere completamente sbagliata.

Perché Google è ancora importante

Oramai i chatbot AI occupano un posto in prima fila nella vita quotidiana di tanti, ma non possono sostituire i motori di ricerca per informazioni critiche (almeno per ora). Sono strumenti eccellenti per il brainstorming creativo, per ottenere spiegazioni semplificate di concetti complessi, o per generare bozze di testi. Ma quando si tratta di fatti verificabili, decisioni importanti o informazioni sensibili al tempo, la vecchia ricerca tradizionale con la verifica delle fonti rimane insostituibile.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
8 ago 2025
Link copiato negli appunti