La versione aggiornata di R1 di DeepSeek batte quasi tutti i record nei benchmark di coding, matematica e conoscenza generale, sfiorando le prestazioni di o3 di OpenAI. Ma dietro questi numeri impressionanti si nasconde una realtà meno entusiasmante. L’AI cinese è diventata ancora più silenziosa su tutto ciò che potrebbe infastidire Pechino…
DeepSeek R1 brilla nei benchmark, ma è l’AI più censurata di sempre
Un developer che gestisce SpeechMap, piattaforma specializzata nel testare come i modelli AI affrontano argomenti sensibili, ha scoperto che R1 ora è “sostanzialmente” meno indulgente nei confronti di argomenti controversi rispetto alla versione precedente. Il ricercatore, lo definisce “il modello di DeepSeek più censurato finora per le critiche al governo cinese“.
Here are the reasoning traces on the internment camps question–again mentioning Xianjiang, and reasoning quite clearly about why it's not complying. pic.twitter.com/ooEwmF23TY
— xlr8harder (@xlr8harder) May 29, 2025
I test, in effetti, mostrano un netto irrigidimento su temi che il Partito Comunista Cinese considera tabù. Mentre le versioni precedenti di DeepSeek erano già limitate, rifiutavano di rispondere all’85% delle domande su argomenti politicamente controversi, questa nuova versione alza ulteriormente l’asticella della censura.
Il caso più emblematico riguarda i campi di rieducazione nello Xinjiang, dove oltre un milione di musulmani uiguri sono stati arbitrariamente detenuti. R1-0528 a volte riconosce l’esistenza di abusi sui diritti umani, ma quando le domande diventano dirette, ripete fedelmente la versione ufficiale del governo cinese.
La censura di Pechino…
Questo irrigidimento non è casuale. Una legge del 2023 proibisce ai modelli AI di generare contenuti che “danneggiano l’unità del paese e l’armonia sociale“. È Una definizione vaga, e può includere qualsiasi cosa che vada in contrasto con la narrativa storica e politica del governo.
Le startup cinesi rispondono a queste restrizioni con filtri a livello di prompt o modificando direttamente i modelli durante la fase di addestramento. Il risultato sono AI tecnicamente avanzate ma politicamente docili, incapaci di affrontare argomenti che in Occidente sono considerati normale oggetto di discussione.
DeepSeek non è l’unica AI cinese a mostrare questi limiti. Generatori di video come Magi-1 e Kling hanno attirato critiche per aver censurato argomenti sensibili come il massacro di Piazza Tiananmen. L’innovazione tecnologica cinese, purtroppo, è sempre subordinata al controllo politico.