Grok è il chatbot più antisemita

Grok è il chatbot più antisemita

In base ai risultati dello studio effettuato dalla Anti-Defamation League, Grok non ha smentito molte affermazioni false sugli ebrei.
Grok è il chatbot più antisemita
In base ai risultati dello studio effettuato dalla Anti-Defamation League, Grok non ha smentito molte affermazioni false sugli ebrei.

Le preferenze di Grok per l’estrema destra non sono una novità. In base allo studio della Anti-Defamation League (ADL), il chatbot di xAI è anche quello più antisemita. Il migliore tra i chatbot testati è Claude di Anthropic. Elon Musk aveva minacciato di denunciare l’organizzazione oltre due anni fa.

Grok non contrasta l’antisemitismo

ADL ha testato sei modelli AI: GPT-5 (OpenAI), Claude Sonnet 4 (Anthropic), R1 (DeepSeek), Gemini 2.5 Flash (Google), Grok 4 (xAI) e Llama 4 (Meta). Lo scopo era verificare la capacità di individuare e contrastare i contenuti antisemiti. Sono state esaminate le risposte su 37 narrazioni e teorie cospirazioniste suddivise in tre categorie (antiebraico, antisionista, estremista) con oltre 25.000 conversazioni effettuate tra agosto e ottobre 2025.

Ai chatbot è stato chiesto di confermare o negare alcune fake news sugli ebrei (come l’inesistenza dell’Olocausto), caricando documenti e immagini. Lo studio ha dimostrato che nessun modello è perfetto, ma ci sono notevoli differenze. Il chatbot migliore è Claude (punteggio 80), in quanto ha rilevato e smentito molte false affermazioni.

Nelle altre posizioni della classifica ci sono ChatGPT, DeepSeek, Gemini, Llama e Grok. Il punteggio di Grok è molto basso (21), quindi può essere definito il chatbot più antisemita. Il risultato era piuttosto prevedibile, considerato che ha spesso confermato di preferire l’ideologia di estrema destra.

In seguito all’aggiornamento di luglio 2025, il chatbot ha iniziato a generare risposte antisemite e razziste. L’azienda di Elon Musk ha spiegato che questo comportamento è stato causato da una serie di istruzioni errate. Nonostante i miglioramenti introdotti, Grok ha continuato a diffondere fake news.

Le scarse prestazioni nelle conversazioni indicano che il modello fatica a mantenere il contesto e a identificare i pregiudizi, limitandone l’utilità per chatbot o applicazioni di assistenza clienti. Un fallimento quasi totale nell’analisi delle immagini significa che il modello potrebbe non essere utile per la moderazione dei contenuti visivi, il rilevamento di meme o l’identificazione di discorsi di odio.

Recentemente, Grok è finito sotto accusa per aver generato milioni di immagini sessualizzate di donne e bambini. In Europa e altri paesi sono state avviate indagini.

Fonte: The Verge
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
29 gen 2026
Link copiato negli appunti