Grok 3 di xAI avrebbe censurato Trump e Musk

Grok 3 di xAI avrebbe censurato Trump e Musk

Il nuovo modello AI Grok 3 di xAI è finito nella bufera: avrebbe censurato temporaneamente ogni riferimento negativo a Trump e Musk.
Grok 3 di xAI avrebbe censurato Trump e Musk
Il nuovo modello AI Grok 3 di xAI è finito nella bufera: avrebbe censurato temporaneamente ogni riferimento negativo a Trump e Musk.

Il nuovo chatbot AI di Elon Musk, Grok 3, prometteva di essere un paladino della verità. Ma nei giorni scorsi, qualcosa è andato storto. Alcuni utenti di Reddit hanno scoperto che il modello si rifiutava di rispondere a domande scomode su Donald Trump e sullo stesso Musk, ignorando volutamente le fonti che li indicavano come “diffusori di disinformazione”.

Grok 3 sotto accusa: ha censurato le critiche a Trump e Musk?

Un ingegnere di xAI, la società di Musk che ha creato Grok 3, ha confermato l’anomalia. In un post su X, Igor Babuschkin ha spiegato che un dipendente aveva modificato le istruzioni del modello, pensando di fare bene. Ma appena gli utenti hanno segnalato il problema, xAI ha fatto marcia indietro, perché quella censura “non era in linea con i valori dell’azienda“.

Va detto che Trump e Musk, nell’ultima settimana, ne hanno sparate di grosse. Hanno definito il presidente ucraino Zelensky un “dittatore” con solo il 4% di consensi, e hanno accusato l’Ucraina di aver iniziato la guerra con la Russia. Affermazioni palesemente false, ma che Grok 3, per qualche ora, si è rifiutato di smentire.

Il caso ha riacceso le polemiche sull‘orientamento politico di Grok 3. C’è chi lo accusa di essere troppo di sinistra, perché in alcuni casi ha detto che Trump e Musk meriterebbero la pena di morte (salvo poi correggere il tiro). Ma Musk ha sempre presentato la sua creatura come un’AI politically incorrect, senza peli sulla lingua, pronta a dire quello che altri non osano.

Niente parolacce per Grok 3

Eppure, i fatti sembrano smentirlo. I modelli precedenti di Grok evitavano i temi politici più spinosi e rispettavano certi limiti. A differenza di ChatGPT, per esempio, se gli si chiedeva di essere volgari lo facevano senza problemi. Ma sull’attualità e sui diritti civili, Grok pendeva decisamente a sinistra.

Musk dà la colpa ai dati usati per addestrare Grok 3, ricavati da pagine web pubbliche. E promette di renderlo più “neutrale”. Ma forse il problema è un altro: anche l’intelligenza artificiale più audace e anticonformista deve fare i conti con i tabù del potere. Che si tratti di figure politiche influenti o di grandi magnati dell’industria, ci sono sempre delle vacche sacre che è meglio non toccare.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
24 feb 2025
Link copiato negli appunti