Risposte di Grok sul genocidio bianco, tutta colpa di un dipendente

Risposte di Grok sul genocidio bianco, tutta colpa di un dipendente

Secondo xAI, un dipendente ha modificato senza autorizzazione il chatbot Grok istigandolo a parlare del genocidio bianco in Sudafrica.
Risposte di Grok sul genocidio bianco, tutta colpa di un dipendente
Secondo xAI, un dipendente ha modificato senza autorizzazione il chatbot Grok istigandolo a parlare del genocidio bianco in Sudafrica.

Grok è finito al centro di una scandalo per le sue risposte fuori luogo sul presunto genocidio bianco in Sudafrica (smentito da fonti ufficiali). Il chatbot attaccava con la tiritera semplicemente menzionandolo o taggandolo nei post, anche se il contenuto del messaggio originale non aveva nulla a che fare con la politica, il Sudafrica o questioni razziali.

xAI, un dipendente ha modificato Grok senza permesso

Dopo il putiferio scatenato su X, xAI ha rotto il silenzio con un comunicato ufficiale per fare chiarezza sull’accaduto. Il comportamento anomalo di Grok sarebbe stato causato da una modifica non autorizzata apportata al suo prompt di sistema. Questa modifica avrebbe spinto Grok a fornire una risposta specifica su un argomento politico, violando le policy interne e i valori di xAI.

Non è la prima volta che Grok finisce nell’occhio del ciclone per le sue risposte controverse. Solo pochi mesi fa, a febbraio, il chatbot aveva censurato menzioni poco lusinghiere di Donald Trump ed Elon Musk. In quell’occasione, un dipendente aveva istruito Grok a ignorare le fonti che accusavano Musk o Trump di diffondere disinformazione. Anche allora, xAI era intervenuta per rimediare al pasticcio non appena gli utenti avevano iniziato a segnalare l’anomalia.

Dopo le critiche xAI rende open source i prompt di sistema di Grok

Di fronte a questo ennesimo scivolone, xAI ha annunciato una serie di misure per evitare che incidenti simili si ripetano in futuro. A partire da oggi, l’azienda pubblicherà i prompt di sistema di Grok su GitHub, insieme a un changelog per tenere traccia delle modifiche. Inoltre, verranno introdotti ulteriori controlli per assicurarsi che i dipendenti di xAI non possano modificare i prompt senza una revisione preventiva. Infine, verrà istituito un team di monitoraggio 24/7 per rispondere tempestivamente a eventuali risposte inappropriate sfuggite ai sistemi automatici.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 mag 2025
Link copiato negli appunti