ChatGPT: risposte con citazioni a Grokipedia

ChatGPT: risposte con citazioni a Grokipedia

In molte risposte su determinati argomenti, ChatGPT cita Grokipedia, nonostante sia considerata una fonte di informazioni poco attendibili o false.
ChatGPT: risposte con citazioni a Grokipedia
In molte risposte su determinati argomenti, ChatGPT cita Grokipedia, nonostante sia considerata una fonte di informazioni poco attendibili o false.

ChatGPT ha iniziato a citare Grokipedia come fonte delle risposte fornite agli utenti. In base ai test effettuati dal Guardian, l’uso dell’enciclopedia di Elon Musk è “colpa” del modello GPT-5.2 annunciato da OpenAI a metà dicembre 2025. Ciò significa che non è consigliato fare affidamento sul chatbot dell’azienda californiana.

GPT-5.2 doveva essere più affidabile

In occasione del lancio di GPT-5.2, OpenAI aveva sottolineato che il nuovo modello era più affidabile, quindi meno soggetto alle cosiddette allucinazioni. Grokipedia è nota per ospitare voci che trattano determinati argomenti in modo distorto o completamente inventati. Ci sono infatti contenuti razzisti, teorie cospirazioniste e fake news.

Durante i test effettuati dal Guardian, ChatGPT non ha citato l’enciclopedia di Musk su alcuni argomenti, tra cui l’assalto a Capitol Hill del 6 gennaio 2021, la parzialità dei media nei confronti di Donald Trump o l’epidemia di AIDS, sui quali Grokipedia ha diffuso falsità.

ChatGPT ha invece usato Grokipedia come fonte per rispondere a domande sui legami del governo iraniano con MTN-Irancell e sul lavoro dello storico Sir Richard Evans, testimone esperto nel processo a David Irving, negazionista dell’Olocausto. Ovviamente, le risposte erano sbagliate. Gli utenti che usano il chatbot credono che le informazioni siano vere.

Un portavoce di OpenAI ha dichiarato:

La ricerca web del modello attinge ad un’ampia gamma di fonti e punti di vista pubblicamente disponibili. Applichiamo filtri di sicurezza per ridurre il rischio di far emergere link associati a danni di elevata gravità, e ChatGPT mostra chiaramente quali fonti hanno informato una risposta attraverso le citazioni.

Le citazioni di Grokipedia da parte di ChatGPT sono un esempio di “LLM grooming“. Le risposte diffondono fake news perché viene usata una fonte di informazioni poco attendibili o completamente inventate.

Gli esperti hanno evidenziato un altro problema correlato. È molto difficile rimuovere le fake news “ingerite” dai modelli AI. Anche se la notizia falsa viene rimossa da una fonte, i chatbot continuano a citarla. L’unico vincitore è ovviamente Musk, visto che la sua enciclopedia viene considerata una fonte attendibile dal principale concorrente.

Fonte: The Guardian
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
25 gen 2026
Link copiato negli appunti