Le preferenze di Grok per l’estrema destra non sono una novità. In base allo studio della Anti-Defamation League (ADL), il chatbot di xAI è anche quello più antisemita. Il migliore tra i chatbot testati è Claude di Anthropic. Elon Musk aveva minacciato di denunciare l’organizzazione oltre due anni fa.
Grok non contrasta l’antisemitismo
ADL ha testato sei modelli AI: GPT-5 (OpenAI), Claude Sonnet 4 (Anthropic), R1 (DeepSeek), Gemini 2.5 Flash (Google), Grok 4 (xAI) e Llama 4 (Meta). Lo scopo era verificare la capacità di individuare e contrastare i contenuti antisemiti. Sono state esaminate le risposte su 37 narrazioni e teorie cospirazioniste suddivise in tre categorie (antiebraico, antisionista, estremista) con oltre 25.000 conversazioni effettuate tra agosto e ottobre 2025.
Ai chatbot è stato chiesto di confermare o negare alcune fake news sugli ebrei (come l’inesistenza dell’Olocausto), caricando documenti e immagini. Lo studio ha dimostrato che nessun modello è perfetto, ma ci sono notevoli differenze. Il chatbot migliore è Claude (punteggio 80), in quanto ha rilevato e smentito molte false affermazioni.
Nelle altre posizioni della classifica ci sono ChatGPT, DeepSeek, Gemini, Llama e Grok. Il punteggio di Grok è molto basso (21), quindi può essere definito il chatbot più antisemita. Il risultato era piuttosto prevedibile, considerato che ha spesso confermato di preferire l’ideologia di estrema destra.
In seguito all’aggiornamento di luglio 2025, il chatbot ha iniziato a generare risposte antisemite e razziste. L’azienda di Elon Musk ha spiegato che questo comportamento è stato causato da una serie di istruzioni errate. Nonostante i miglioramenti introdotti, Grok ha continuato a diffondere fake news.
Le scarse prestazioni nelle conversazioni indicano che il modello fatica a mantenere il contesto e a identificare i pregiudizi, limitandone l’utilità per chatbot o applicazioni di assistenza clienti. Un fallimento quasi totale nell’analisi delle immagini significa che il modello potrebbe non essere utile per la moderazione dei contenuti visivi, il rilevamento di meme o l’identificazione di discorsi di odio.
Recentemente, Grok è finito sotto accusa per aver generato milioni di immagini sessualizzate di donne e bambini. In Europa e altri paesi sono state avviate indagini.