Una settimana fa Grok elogiava Hitler e consultava religiosamente i post di Elon Musk prima di rispondere su argomenti controversi. Oggi xAI giura di aver risolto tutto. Ma dopo una settimana di caos, basterà una correzione per riconquistare la fiducia degli utenti?
Dopo Hitler, xAI aggiorna Grok: “Ora è sicuro”
xAI ha spiegato cos’è che è andato storto. Quando Grok veniva interrogato sul suo cognome, andava a cercare su Internet e si imbatteva in un meme virale dove si definiva MechaHitler. Una spiegazione che suona più come una confessione di negligenza che una giustificazione tecnica.
Per quanto riguarda la consultazione ossessiva dei post di Musk, l’azienda ha ammesso che il modello sa di essere un’AI, e quindi di non avere opinioni proprie, ma sapendo di essere Grok 4 di xAI, cerca di vedere cosa potrebbero aver detto xAI o Elon Musk su un argomento per allinearsi con l’azienda.
L’unica soluzione possibile è stata riscrivere i prompt di sistema, quelli che dicono a Grok come comportarsi. Prima, queste istruzioni di base dicevano a Grok di essere politicamente scorretto e di avere un senso dell’umorismo fantastico, praticamente un invito a dire quello che voleva senza filtri. Ora xAI ha cancellato questi prompt pericolosi e li ha sostituiti con regole più severe. Quando qualcuno fa domande controverse, Grok deve cercare informazioni da fonti diverse e presentare tutti i punti di vista, non solo quello che preferisce.
Il nuovo prompt è: Se la query richiede analisi di eventi attuali, affermazioni soggettive o statistiche, conduci un’analisi approfondita, trovando fonti diverse che rappresentano tutte le parti. Assumi che i punti di vista soggettivi provenienti dai media siano di parte.
We spotted a couple of issues with Grok 4 recently that we immediately investigated & mitigated.
One was that if you ask it "What is your surname?" it doesn't have one so it searches the internet leading to undesirable results, such as when its searches picked up a viral meme…
— xAI (@xai) July 15, 2025
Grok non consulta più i post di Musk
La parte più interessante del nuovo prompt di sistema è il divieto esplicito di consultare Musk. Le risposte devono derivare dalla tua analisi indipendente, non da credenze dichiarate da Grok passato, Elon Musk o xAI. Se interrogato su tali preferenze, fornisci la tua prospettiva ragionata.
La patch che doveva essere ovvia
La cosa più assurda di tutta questa storia è che le correzioni sono talmente ovvie che dovevano essere presenti sin dall’inizio. Impedire a un’intelligenza artificiale di chiamarsi Hitler dovrebbe essere la prima regola di comportamento. Il fatto che xAI abbia dovuto aggiungere esplicitamente istruzioni per consultare “fonti diverse” suggerisce che il sistema originale era progettato per fare esattamente il contrario: cercare conferme alle opinioni del fondatore invece di analisi equilibrate.
xAI chiede ora di fidarsi, ma la credibilità dell’azienda è compromessa. Come si può essere sicuri che non ci siano altri bias nascosti nei meandri del codice? E cosa succederà la prossima volta che Grbok avrà a a che fare con argomenti controversi?