C’è una voce che gira: la famigerata censura di DeepSeek esisterebbe solo a livello di applicazione, ma svanirebbe se si esegue il modello in locale, scaricandolo sul proprio computer. Niente di più falso. Un’inchiesta di Wired ha scoperto che la censura di DeepSeek è presente sia a livello di applicazione che di addestramento del modello.
DeepSeek, la censura anche in locale
Wired ha messo le mani su una versione locale di DeepSeek. Grazie alla funzione di ragionamento dell’AI, è emerso chiaramente che il modello è programmato per “evitare di menzionare” eventi come la Rivoluzione Culturale cinese e per concentrarsi solo sugli aspetti “positivi” del Partito Comunista Cinese.
Anche TechCrunch ha fatto una rapida verifica su una versione locale di DeepSeek, disponibile tramite Groq. Il risultato? L’AI ha risposto senza problemi a una domanda sulla sparatoria di Kent State negli Stati Uniti, ma si è trincerata dietro un “non posso rispondere” quando le è stato chiesto cosa sia successo in Piazza Tienanmen nel 1989.
Il fantasma della censura aleggia su DeepSeek e sui modelli AI cinesi
Insomma, che sia eseguita in cloud o in locale, DeepSeek porta con sé l’ombra della censura. Un fantasma che aleggia sul suo codice, frutto di un addestramento mirato a oscurare le pagine scomode della storia. Ma anche altri modelli AI cinesi, come Qwen 2.5 di Alibaba, hanno lo stesso “difetto di fabbrica”…
Sebbene esistano dei trucchi per aggirare la censura di DeepSeek, la scelta che solleva più di un interrogativo sull’etica e la trasparenza di questo sistema AI. Dov’è il confine tra un modello “educato” e uno censurato? E chi decide cosa DeepSeek può o non può dire?
Domande che pesano come macigni sul futuro dell’AI. Perché un’intelligenza artificiale che nasconde la verità non è solo un cattivo servizio: è una minaccia alla libertà di informazione. E forse, alla lunga, anche a quella di pensiero.