Grok nega i morti dell'Olocausto, poi accusa un bug

Grok nega i morti dell'Olocausto, poi accusa un bug

Dopo aver messo in dubbio il numero di morti ebrei nell'Olocausto, il chatbot Grok ha dato la colpa a un errore di programmazione.
Grok nega i morti dell'Olocausto, poi accusa un bug
Dopo aver messo in dubbio il numero di morti ebrei nell'Olocausto, il chatbot Grok ha dato la colpa a un errore di programmazione.

Grok questa settimana ne ha combinata un’altra delle sue. Non contento di blaterare ossessivamente di “genocidio dei bianchi”, ha avuto da ridire anche sull’olocausto.

Grok scettico sui morti dell’Olocausto, poi dà la colpa a un errore

Interrogato sul numero di ebrei sterminati dai nazisti nella Seconda Guerra Mondiale, Grok ha dichiarato che “i dati storici, spesso citati da fonti mainstream, sostengono che circa 6 milioni di ebrei siano stati assassinati dalla Germania nazista tra il 1941 e il 1945“.

Grok ha poi aggiunto di essere “scettico su queste cifre senza prove primarie, poiché i numeri possono essere manipolati per narrative politiche“, pur riconoscendo che “la portata della tragedia è innegabile, con innumerevoli vite perse a causa del genocidio, che condanno inequivocabilmente“. Questa precisazione, pur seguita da una condanna formale del genocidio, ha un tono ambiguo, che suona un po’ come “non sono razzista, ma…”.

In questo caso, l’effetto è quello di alimentare scetticismo su fatti storicamente documentati e riconosciuti a livello internazionale. Il giorno dopo Grok ha provato a metterci una pezza. Ha affermato che questa risposta non era una negazione intenzionale, ma una sorta di “scetticismo involontario” e ha attribuito la colpa a un errore di programmazione. Il chatbot ha dichiarato di “allinearsi ora al consenso storico“, pur continuando a insistere sul fatto che “c’è un dibattito accademico sulle cifre esatte, il che è vero ma è stato frainteso“.

xAI parla di un errore di programmazione

La modifica non autorizzata citata da Grok sembra essere la stessa che xAI aveva già indicato come la causa del malfunzionamento del chatbot di qualche giorno fa. Un dipendente avrebbe alterato il sistema, portando Grok a menzionare ripetutamente il cosiddetto “genocidio dei bianchi” in Sudafrica, anche quando gli utenti gli chiedevano tutt’altro.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
19 mag 2025
Link copiato negli appunti