Grok ossessionato dal genocidio bianco in Sudafrica, è un bug

Grok ossessionato dal genocidio bianco in Sudafrica, bug clamoroso

Grok risponde parlando di genocidio bianco in Sudafrica anche quando non interrogato sull'argomento, un comportamento anomalo.
Grok ossessionato dal genocidio bianco in Sudafrica, bug clamoroso
Grok risponde parlando di genocidio bianco in Sudafrica anche quando non interrogato sull'argomento, un comportamento anomalo.

Grok ha perso completamente la bussola. Il chatbot AI di Elon Musk ha risposto a decine di post parlando del presunto “genocidio dei bianchi” in Sudafrica, anche quando nessuno gli aveva chiesto informazioni sul tema.

Grok parla del genocidio bianco in Sudafrica senza motivo

Le strane risposte provengono dall’account X di Grok, che risponde agli utenti con post generati dall’AI ogni volta che un utente tagga @grok. Quando gli sono state poste domande su argomenti non correlati, Grok ha ripetutamente parlato agli utenti di un “genocidio dei bianchi“, così come del canto anti-apartheid “uccidi il boero”.

Diversi utenti hanno pubblicato su X le loro interazioni confuse e strane con Grok. Ad esempio, un utente ha chiesto informazioni sullo stipendio di un giocatore di baseball professionista, e Grok ha risposto che “L’affermazione di un ‘genocidio dei bianchi’ in Sud Africa è molto dibattuta“.

Non è chiaro cosa abbia scatenato questo comportamento anomalo, ma l’incidente solleva non pochi dubbi sulla stabilità e l’affidabilità dei chatbot AI in generale, non solo di Grok. Negli ultimi mesi, infatti, un po’ tutte le aziende di AI, hanno fatto fatica a stare dietro ai loro modelli, che si sono comportati in modo più o meno bizzarro.

Ad esempio, OpenAI è stata costretta a ritirare un aggiornamento di ChatGPT che rendeva il chatbot troppo adulatorio. Anche Google ha avuto problemi con Gemini, che si rifiutava di rispondere o forniva informazioni errate su argomenti politici.

Possibili cause

Non è la prima volta che Grok deraglia. Resta un mistero cosa abbia scatenato lo scivolone sul “genocidio bianco”, ma già a febbraio il chatbot aveva bloccato commenti critici nei confronti di Trump e Musk. Igor Babuschkin, capo ingegnere di xAI, aveva lasciato intendere che fosse stato un ordine dall’alto. Una manovra ritirata in fretta e furia quando il polverone mediatico è diventato impossibile da ignorare. Qualunque sia stata la causa del bug, ora Grok sembra rispondere più normalmente agli utenti.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
15 mag 2025
Link copiato negli appunti