Il nuovo chatbot AI di Elon Musk, Grok 3, prometteva di essere un paladino della verità. Ma nei giorni scorsi, qualcosa è andato storto. Alcuni utenti di Reddit hanno scoperto che il modello si rifiutava di rispondere a domande scomode su Donald Trump e sullo stesso Musk, ignorando volutamente le fonti che li indicavano come “diffusori di disinformazione”.
Grok 3 sotto accusa: ha censurato le critiche a Trump e Musk?
Un ingegnere di xAI, la società di Musk che ha creato Grok 3, ha confermato l’anomalia. In un post su X, Igor Babuschkin ha spiegato che un dipendente aveva modificato le istruzioni del modello, pensando di fare bene. Ma appena gli utenti hanno segnalato il problema, xAI ha fatto marcia indietro, perché quella censura “non era in linea con i valori dell’azienda“.
I believe it is good that we're keeping the system prompts open. We want people to be able to verify what it is we're asking Grok to do. In this case an employee pushed the change because they thought it would help, but this is obviously not in line with our values. We've…
— Igor Babuschkin (@ibab) February 23, 2025
Va detto che Trump e Musk, nell’ultima settimana, ne hanno sparate di grosse. Hanno definito il presidente ucraino Zelensky un “dittatore” con solo il 4% di consensi, e hanno accusato l’Ucraina di aver iniziato la guerra con la Russia. Affermazioni palesemente false, ma che Grok 3, per qualche ora, si è rifiutato di smentire.
Il caso ha riacceso le polemiche sull‘orientamento politico di Grok 3. C’è chi lo accusa di essere troppo di sinistra, perché in alcuni casi ha detto che Trump e Musk meriterebbero la pena di morte (salvo poi correggere il tiro). Ma Musk ha sempre presentato la sua creatura come un’AI politically incorrect, senza peli sulla lingua, pronta a dire quello che altri non osano.
Niente parolacce per Grok 3
Eppure, i fatti sembrano smentirlo. I modelli precedenti di Grok evitavano i temi politici più spinosi e rispettavano certi limiti. A differenza di ChatGPT, per esempio, se gli si chiedeva di essere volgari lo facevano senza problemi. Ma sull’attualità e sui diritti civili, Grok pendeva decisamente a sinistra.
Musk dà la colpa ai dati usati per addestrare Grok 3, ricavati da pagine web pubbliche. E promette di renderlo più “neutrale”. Ma forse il problema è un altro: anche l’intelligenza artificiale più audace e anticonformista deve fare i conti con i tabù del potere. Che si tratti di figure politiche influenti o di grandi magnati dell’industria, ci sono sempre delle vacche sacre che è meglio non toccare.