DeepSeek: la censura permane anche con l'esecuzione locale

DeepSeek: la censura permane anche con l'esecuzione locale

Contrariamente a quanto ipotizzato, DeepSeek non perde la censura se eseguito in locale anziché tramite app web, come dimostra un'inchiesta di Wired.
DeepSeek: la censura permane anche con l'esecuzione locale
Contrariamente a quanto ipotizzato, DeepSeek non perde la censura se eseguito in locale anziché tramite app web, come dimostra un'inchiesta di Wired.

C’è una voce che gira: la famigerata censura di DeepSeek esisterebbe solo a livello di applicazione, ma svanirebbe se si esegue il modello in locale, scaricandolo sul proprio computer. Niente di più falso. Un’inchiesta di Wired ha scoperto che la censura di DeepSeek è presente sia a livello di applicazione che di addestramento del modello.

DeepSeek, la censura anche in locale

Wired ha messo le mani su una versione locale di DeepSeek. Grazie alla funzione di ragionamento dell’AI, è emerso chiaramente che il modello è programmato per “evitare di menzionare” eventi come la Rivoluzione Culturale cinese e per concentrarsi solo sugli aspetti “positivi” del Partito Comunista Cinese.

Anche TechCrunch ha fatto una rapida verifica su una versione locale di DeepSeek, disponibile tramite Groq. Il risultato? L’AI ha risposto senza problemi a una domanda sulla sparatoria di Kent State negli Stati Uniti, ma si è trincerata dietro un “non posso rispondere” quando le è stato chiesto cosa sia successo in Piazza Tienanmen nel 1989.

Il fantasma della censura aleggia su DeepSeek e sui modelli AI cinesi

Insomma, che sia eseguita in cloud o in locale, DeepSeek porta con sé l’ombra della censura. Un fantasma che aleggia sul suo codice, frutto di un addestramento mirato a oscurare le pagine scomode della storia. Ma anche altri modelli AI cinesi, come Qwen 2.5 di Alibaba, hanno lo stesso “difetto di fabbrica”…

Sebbene esistano dei trucchi per aggirare la censura di DeepSeek, la scelta che solleva più di un interrogativo sull’etica e la trasparenza di questo sistema AI. Dov’è il confine tra un modello “educato” e uno censurato? E chi decide cosa DeepSeek può o non può dire?

Domande che pesano come macigni sul futuro dell’AI. Perché un’intelligenza artificiale che nasconde la verità non è solo un cattivo servizio: è una minaccia alla libertà di informazione. E forse, alla lunga, anche a quella di pensiero.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
4 feb 2025
Link copiato negli appunti