Anthropic ha sviluppato avanzate misure di sicurezza per impedire usi illegali dei modelli Claude (espressamente vietati dalla policy), ma i cybercriminali hanno trovato il modo di aggirare queste protezioni per eseguire attacchi informatici di vario tipo. La startup californiana ha descritto alcuni di essi nel report di agosto.
Claude è un tool per il cybercrimine
Anthropic afferma che l’intelligenza artificiale agentica è stata trasformata in una cyber arma. I modelli AI vengono utilizzati per eseguire attacchi informatici sofisticati, non solo per fornire consigli su come eseguirli. Le loro capacità vengono sfruttate da cybercriminali con poche competenze per eseguire operazioni complesse, come la distribuzione di ransomware. L’azienda di San Francisco ha descritto nel report (PDF) alcuni usi illegali di Claude.
Anthropic ha scoperto un furto di dati su larga scala con annessa estorsione effettuato con l’aiuto di Claude Code. L’attacco ha colpito almeno 17 organizzazioni che operano in diversi settori. L’assistente AI per la scrittura di codice è stato utilizzato per tutte le fasi: individuazione del bersaglio (scansione dei sistemi vulnerabili), accesso iniziale, furto delle credenziali, sviluppo del malware, esfiltrazione dei dati e richiesta di riscatto (fino a 500.000 dollari in Bitcoin). Anthropic ha chiuso gli account e sviluppato un nuovo sistema che rileva questo tipo di attività.
Il secondo esempio è la classica truffa dei lavoratori IT nordcoreani. Cybercriminali al servizio del governo riescono ad ottenere un lavoro remoto da aziende statunitensi. I loro guadagni servono quindi per finanziare il programma militare e spesso riescono anche ad accedere a informazioni riservate.
Solitamente si tratta di persone con varie competenze IT che conoscono la lingua inglese. In questo caso non sapevano scrivere codice e conoscevano poche parole in inglese. Usando Claude hanno creato false identità di persone con false competenze. Il chatbot è stato sfruttato anche durante i colloqui di lavoro per rispondere alle domande e successivamente per mantenere il lavoro. Anthropic ha chiuso gli account e migliorato i sistemi per rilevare simili truffe.
Un cybercriminale ha inoltre usato Claude per sviluppare e vendere diversi ransomware con prezzi tra 200 e 1.200 dollari tramite il modello RaaS (Ramsomware-as-a-Service). Il chatbot ha fornito aiuto durante l’intero ciclo di sviluppo. Anche in questo caso è stato chiuso l’account e aggiunte misure per rilevare la generazione di malware.
Nel report sono descritti altri casi, come la creazione di un bot per truffe romantiche e l’uso di Claude da parte di cybercriminali cinesi per attacchi contro le infrastrutture critiche del Vietnam. Anthropic ha condiviso tutte le informazioni con esperti di sicurezza, forze dell’ordine e altre aziende AI.