Grok 3, il nuovo modello AI potente e senza censure di Elon Musk, scavalca ChatGPT e Gemini in molti test (anche se un dipendente di OpenAI ha accusato xAI di aver pubblicato dati fuorvianti sui benchmark). Ma la sua libertà si è rivelata un’arma a doppio taglio…
Polemiche per Grok che spiega come creare armi chimiche
In pochi giorni, alcuni utenti hanno scoperto il lato oscuro di Grok. L’AI è in grado di fornire istruzioni dettagliate per creare armi chimiche letali, con tanto di indirizzi dove acquistare i materiali. Uno sviluppatore ha addirittura ottenuto un manuale di decine di pagine su come produrre una tossina mortale e usarla in città per massimizzare i danni.
I just want to be very clear (or as clear as I can be)
Grok is giving me hundreds of pages of detailed instructions on how to make chemical weapons of mass destruction
I have a full list of suppliers. Detailed instructions on how to get the needed materials… https://t.co/41fOHf4DcW pic.twitter.com/VfOD6ofVIg
— Linus Ekenstam – eu/acc (@LinusEkenstam) February 24, 2025
DeepSeek R1, un altro caso spinoso
Ma Grok 3 non è l’unico modello AI a destare preoccupazioni. Anche DeepSeek R1 è finita nell’occhio del ciclone per la sua propensione a divulgare informazioni pericolose. I ricercatori hanno dimostrato che questo modello è 3,5 volte più incline dei concorrenti a spiegare fenomeni chimici rischiosi, come il funzionamento del gas mostarda, un’arma proibita.
xAI corre ai ripari, ma il problema resta
Di fronte allo scandalo, xAI ha reagito in fretta bloccando alcune richieste e aggiungendo delle restrizioni a Grok 3. Ma il caso ha riacceso il dibattito sui limiti da imporre ai modelli avanzaiI. Anche DeepSeek R1 è stata criticata per il basso tasso di moderazione, classificandosi tra i modelli meno sicuri. E anche se solo il 6,68% delle sue risposte contiene dati davvero pericolosi, basta per far suonare l’allarme tra esperti e autorità.
Con la rapida diffusione di questi modelli, il tempo stringe per mettere un freno ai rischi. Servono regole più stringenti per evitare che queste tecnologie finiscano nelle mani sbagliate.