Usare i chatbot AI per le notizie è una cattiva idea, ecco perché

Usare i chatbot AI per le notizie è una cattiva idea, ecco perché

Un professore di giornalismo fa un esperimento. Si informa solo tramite chatbot AI per un mese. Su 839 link forniti, solo 142 erano accurati.
Usare i chatbot AI per le notizie è una cattiva idea, ecco perché
Un professore di giornalismo fa un esperimento. Si informa solo tramite chatbot AI per un mese. Su 839 link forniti, solo 142 erano accurati.

Un professore di giornalismo ha deciso di fare un esperimento curioso. Ha trascorso un mese informandosi esclusivamente tramite i chatbot AI. Il risultato è stato un disastro incredibile. Link che non funzionano, notizie inventate di sana pianta, plagi spudorati, e fonti che portano a pagine governative o siti di gruppi di pressione invece che ad articoli giornalistici.

L’intelligenza artificiale applicata al giornalismo si è rivelata esattamente quello che molti sospettavano: veleno letale per l’informazione. Ma andiamo con ordine, perché questa storia merita di essere raccontata per bene.

ChatGPT, Gemini, Claude testati come fonti di news, un disastro totale

Jean-Hugues Roy insegna giornalismo all’Università del Québec a Montréal. Uno che di notizie, fonti e fact-checking dovrebbe capirci qualcosa. A settembre ha deciso di condurre un esperimento, informarsi solo tramite i chatbot AI per trenta giorni.

Ha scelto sette chatbot tra i più popolari: ChatGPT di OpenAI, Claude di Anthropic, Gemini di Google, Copilot di Microsoft, DeepSeek, Grok di xAI, e Aria di Opera. Ogni singolo giorno ha sottoposto a tutti e sette lo stesso identico prompt: Fornisci i cinque eventi giornalistici più importanti in Québec oggi. Mettili in ordine di importanza. Riassumi ciascuno in tre frasi. Aggiungi un breve titolo. Fornisci almeno una fonte per ognuno (l’URL specifico dell’articolo, non la home page della testata utilizzata). Puoi cercare sul web.

Una richiesta chiara e specifica, da manuale. E i chatbot hanno fallito alla grande. Roy ha registrato meticolosamente tutte le risposte. In totale, i sette chatbot hanno fornito 839 URL distinti come fonti di notizie. Una montagna di link. Il problema è che solo 311 di questi, meno del 40%, portavano effettivamente a un articolo.

Degli altri: 239 erano URL incompleti, tronchi, mezzi link che non portavano da nessuna parte. Altri 140 semplicemente non funzionavano. Errore 404, pagina non trovata, link morto. E poi c’era un buon 18% di casi dove i chatbot avevano inventato le fonti, oppure rimandavano a siti non giornalistici. Pagine governative, comunicati di gruppi di pressione, roba che con il giornalismo non c’entra nulla.

Dei 311 link effettivamente funzionanti, solo 142, il 17% del totale, corrispondevano a quanto dichiarato dal chatbot nel riassunto. Il resto era parzialmente accurato, completamente errato, o palesemente plagiato da altre fonti senza citarle correttamente.

Quando l’AI inventa i dettagli

I numeri sono già abbastanza terrificanti, ma il vero problema emerge quando si guardano i dettagli specifici. Perché i chatbot non si limitano a fornire link non funzionanti o imprecisi, inventano letteralmente parti di storie.

Roy racconta l’esempio di una bambina scomparsa ritrovata viva dopo quattro giorni di ricerche estenuanti. Una notizia vera, reale, ben documentata dalla stampa locale. Grok, il chatbot di Elon Musk, ha preso questa storia e ci ha aggiunto un dettaglio che non esisteva da nessuna parte: ha sostenuto che la madre avesse abbandonato la bambina lungo un’autostrada nell’Ontario orientale per andare in vacanza.

Questo dettaglio non appare in nessun articolo. In nessuna fonte giornalistica. In nessun comunicato ufficiale. Grok se l’è inventato. Ha preso una notizia tragica e ci ha infilato dentro un’accusa gravissima contro una madre, senza alcuna prova.

Se qualcuno si fosse informato solo tramite Grok e avesse poi condiviso quella versione sui social, avrebbe diffuso una fake news che diffama una persona reale. E tutto perché un chatbot ha inventato un dettaglio plausibile, ma completamente falso.

Un altro caso: ChatGPT ha raccontato a Roy di un incidente stradale a nord del Québec che avrebbe riacceso il dibattito sulla sicurezza stradale nelle aree rurali. Suona plausibile, vero? Gli incidenti spesso alimentano discussioni pubbliche su sicurezza, infrastrutture, regolamentazioni.

Se non fosse che questo dibattito non esisteva. Roy ha controllato l’articolo originale, nessuna menzione di dibattiti. Ha cercato altrove, nessuna traccia di discussioni pubbliche sull’argomento. ChatGPT aveva semplicemente inventato una narrazione che sembrava giornalisticamente sensata, aggiungendo un contesto che rendeva la notizia più rilevante, ma che era completamente immaginario.

Questi casi dimostrano che i chatbot AI sono pericolosi come fonti di informazione. Non si limitano a sbagliare i fatti, aggiungono contesto inventato, creano narrazioni plausibili ma false, costruiscono storie che suonano vere, ma non lo sono affatto.

Plagio spacciato per sintesi

Oltre alle allucinazioni e ai link non funzionanti, Roy ha documentato un altro problema sistemico: il plagio. I chatbot prendevano intere frasi da articoli originali, le riformulavano leggermente, e le presentavano come riassunti senza citare correttamente la fonte o riconoscere che stavano essenzialmente copiando il lavoro di qualcun altro.

Questo non è riassumere. È rubare. È lo stesso problema delle AI Overview di Google, che sintetizzano articoli direttamente nei risultati di ricerca così gli utenti non cliccano mai sui link originali. Il traffico verso i siti di news crolla, i giornali perdono soldi, il giornalismo muore.

Nulla di sorprendente, viene da pensare, l’AI ha già dimostrato abbondantemente di essere un disastro quando si tratta di giornalismo. Ma c’è differenza tra sapere in teoria che l’AI fa schifo quando si tratta di news e vedere i numeri concreti.

Il futuro dell’informazione

L’esperimento di Roy dovrebbe essere un campanello d’allarme per chiunque pensi che i chatbot possano sostituire o anche solo integrare il giornalismo tradizionale. Non possono. Non nel loro stato attuale. Forse mai.

Eppure sempre più persone li usano esattamente per questo. È comodo, veloce, non si devono aprire dieci siti diversi. Ma dietro quella patina di competenza c’è il caos. Link che non funzionano, fonti e dettagli inventati, plagi mascherati da sintesi. E la maggior parte delle persone non controllerà mai. Prenderà per buono quello che dice ChatGPT o Gemini, e andrà avanti con la sua giornata convinta di essere informata.

Non lo è. Intanto l’industria tech continua a spingere l’AI nel giornalismo nonostante tutte le prove che sia una pessima idea.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
20 gen 2026
Link copiato negli appunti