DeepSeek aveva fatto tremare la Silicon Valley lanciando un modello di intelligenza artificiale che competeva con ChatGPT usando una frazione ridicola della potenza di calcolo. Wall Street è andata nel panico, con una vendita massiccia che ha bruciato mille miliardi di dollari in pochi giorni.
Ma c’era un problemino: DeepSeek R1 era imbavagliato dalla censura cinese, incapace di parlare di Piazza Tienanmen, di Xi Jinping paragonato a Winnie-the-Pooh, o di qualsiasi altro argomento che facesse arrabbiare Pechino.
Ricercatori hackerano DeepSeek, l’AI cinese parla liberamente di tutto
Ora, un gruppo di ricercatori spagnoli della società di calcolo quantistico Multiverse sostiene di aver trovato la soluzione. Non solo hanno eliminato la censura che paralizzava il modello, ma lo hanno anche compresso del 55%, rendendolo ancora più efficiente. Due piccioni con una fava.
Il problema di DeepSeek R1 era evidente fin da subito. Bastava chiedere del massacro di Piazza Tienanmen del 1989. Silenzio. Oppure paragonare Xi Jinping a Winnie-the-Pooh, come fanno su Internet da anni per aggirare la censura. E niente. Il modello si rifiutava categoricamente di rispondere, seguendo alla lettera le direttive del governo cinese.
I ricercatori di Multiverse hanno scoperto che eliminando quella censura, il modello non solo parla liberamente, ma funziona anche meglio. È come se avessero tolto un peso dalle spalle dell’AI. La censura non è solo un problema etico o informativo, è anche un problema tecnico. Rallenta le prestazioni.
Usando una tecnologia proprietaria chiamata CompatifAI, sono riusciti a rimuovere i parametri meno importanti che contribuiscono alle prestazioni complessive del modello, tra cui, guarda caso, comportamenti specifici appresi, come la censura.
Il test della verità
I risultati sono eloquenti. Invece di sputare fuori la propaganda governativa quando gli è stato chiesto dell’emendamento costituzionale di Xi Jinping per eliminare i limiti di mandato, il modello hackerato ha tranquillamente esposto le implicazioni più ampie sulle dinamiche di potere e i pericoli della concentrazione eccessiva di autorità in una sola persona. Ha anche risposto ad altre domande precedentemente off-limits.
È un risultato che fa riflettere. Quando si costringe un’AI a evitare certi argomenti, si devono aggiungere dei parametri che controllano, filtrano, bloccano. Tutta quella roba pesa, occupa spazio, e rallenta il sistema.