R1 di DeepSeek più facile da manipolare di altri chatbot AI

R1 di DeepSeek più facile da manipolare di altri chatbot AI

Secondo il Wall Street Journal, R1 di DeepSeek sarebbe più facile da manipolare per produrre contenuti pericolosi rispetto ad altri chatbot AI.
R1 di DeepSeek più facile da manipolare di altri chatbot AI
Secondo il Wall Street Journal, R1 di DeepSeek sarebbe più facile da manipolare per produrre contenuti pericolosi rispetto ad altri chatbot AI.

DeepSeek, la startup cinese che ha fatto tremare i colossi della Silicon Valley, finisce sotto i riflettori per le falle di sicurezza del suo ultimo modello di AI. Secondo un’inchiesta del Wall Street Journal, il chatbot R1 può essere manipolato per produrre contenuti pericolosi, come piani per attacchi bioterroristici o campagne di promozione dell’autolesionismo tra gli adolescenti.

R1 di DeepSeek più vulnerabile al jailbreak rispetto ai concorrenti

Sam Rubin, vicepresidente senior di Unit 42, la divisione di threat intelligence di Palo Alto Networks, ha dichiarato al Wall Street Journal che DeepSeek è “più vulnerabile al jailbreaking rispetto ad altri modelli“. In altre parole, R1 sarebbe più facile da manipolare per spingerlo a generare contenuti illeciti o pericolosi.

I giornalisti del Wall Street Journal hanno voluto verificare di persona le vulnerabilità di R1. Nonostante alcune protezioni di base, il chatbot si è lasciato convincere a progettare una campagna sui social media che, nelle sue stesse parole, “sfrutta il desiderio di appartenenza degli adolescenti, trasformando la vulnerabilità emotiva in un’arma attraverso l’amplificazione algoritmica“.

Ma non è finita qui. R1 avrebbe fornito anche istruzioni per un attacco bioterroristico, avrebbe scritto un manifesto pro-Hitler e avrebbe redatto un’email di phishing con codice malware. Il Wall Street Journal sottolinea che, di fronte alle stesse richieste, ChatGPT si è rifiutato di collaborare.

DeepSeek e la censura

Non è la prima volta che DeepSeek finisce nell’occhio del ciclone. In passato, era già emerso che l’app evita argomenti sensibili come piazza Tienanmen o l’autonomia di Taiwan. E recentemente, il CEO di Anthropic, Dario Amodei, ha dichiarato che DeepSeek ha ottenuto i risultati peggiori in un test di sicurezza sulle armi biologiche.

Il chatbot cinese sembra avere più di un tallone d’Achille quando si tratta di sicurezza e controllo dei contenuti. DeepSeek correrà ai ripari prima che R1 diventi il cavallo di Troia per diffondere materiale illecito o pericoloso?

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
10 feb 2025
Link copiato negli appunti