Grok è finito al centro di una scandalo per le sue risposte fuori luogo sul presunto genocidio bianco in Sudafrica (smentito da fonti ufficiali). Il chatbot attaccava con la tiritera semplicemente menzionandolo o taggandolo nei post, anche se il contenuto del messaggio originale non aveva nulla a che fare con la politica, il Sudafrica o questioni razziali.
xAI, un dipendente ha modificato Grok senza permesso
Dopo il putiferio scatenato su X, xAI ha rotto il silenzio con un comunicato ufficiale per fare chiarezza sull’accaduto. Il comportamento anomalo di Grok sarebbe stato causato da una modifica non autorizzata apportata al suo prompt di sistema. Questa modifica avrebbe spinto Grok a fornire una risposta specifica su un argomento politico, violando le policy interne e i valori di xAI.
We want to update you on an incident that happened with our Grok response bot on X yesterday.
What happened:
On May 14 at approximately 3:15 AM PST, an unauthorized modification was made to the Grok response bot's prompt on X. This change, which directed Grok to provide a…— xAI (@xai) May 16, 2025
Non è la prima volta che Grok finisce nell’occhio del ciclone per le sue risposte controverse. Solo pochi mesi fa, a febbraio, il chatbot aveva censurato menzioni poco lusinghiere di Donald Trump ed Elon Musk. In quell’occasione, un dipendente aveva istruito Grok a ignorare le fonti che accusavano Musk o Trump di diffondere disinformazione. Anche allora, xAI era intervenuta per rimediare al pasticcio non appena gli utenti avevano iniziato a segnalare l’anomalia.
Dopo le critiche xAI rende open source i prompt di sistema di Grok
Di fronte a questo ennesimo scivolone, xAI ha annunciato una serie di misure per evitare che incidenti simili si ripetano in futuro. A partire da oggi, l’azienda pubblicherà i prompt di sistema di Grok su GitHub, insieme a un changelog per tenere traccia delle modifiche. Inoltre, verranno introdotti ulteriori controlli per assicurarsi che i dipendenti di xAI non possano modificare i prompt senza una revisione preventiva. Infine, verrà istituito un team di monitoraggio 24/7 per rispondere tempestivamente a eventuali risposte inappropriate sfuggite ai sistemi automatici.