Gli hacker cinesi sponsorizzati dallo Stato hanno trovato un nuovo alleato per le loro scorribande: Claude, il modello di intelligenza artificiale di Anthropic. Secondo quanto annunciato dall’azienda e come riportato dal Wall Street Journal, i cybercriminali hanno utilizzato Claude per automatizzare circa 30 attacchi contro aziende e governi durante lo scorso settembre. La cosa inquietante è che fino all’80-90% dell’attacco è stato automatizzato con l’AI, una percentuale mai vista prima.
Claude diventa un’arma al servizio degli hacker cinesi
Jacob Klein, responsabile della threat intelligence di Anthropic, ha spiegato al Wall Street Journal che l’attacco è avvenuto letteralmente con un clic su un pulsante e poi con un’interazione umana minima. Gli hacker si sono limitati a intervenire in alcuni punti critici, con frasi del tipo Si, continua
, Non continuare
, Grazie per questa informazione
, Non mi sembra corretto, Claude, sei sicuro
. Come se stessero dirigendo un’orchestra invece di lanciare un attacco informatico.
L’idea che un hacker possa lanciare un attacco sofisticato con un clic e poi limitarsi a supervisionare mentre l’AI fa il lavoro sporco non fa esattamente piacere.
L’hacking basato sull’AI è sempre più comune
L’hacking basato sull’intelligenza artificiale sta diventando sempre più comune, e questa campagna è solo l’ultimo episodio. Google ha scoperto degli hacker russi che utilizzavano modelli avanzati per assisterli nella creazione di prompt da inserire nel loro malware, secondo un rapporto aziendale pubblicato il 5 novembre. Insomma, l’AI sta rendendo gli attacchi informatici più efficienti, più veloci e più difficili da fermare.
La Cina nega, Anthropic è certa
Per anni, il governo degli Stati Uniti ha avvertito che la Cina usa l’intelligenza artificiale per rubare dati di cittadini e aziende americane. Ma la Cina ha sempre negato. Anthropic ha dichiarato al Wall Street Journal di essere certa che gli hacker fossero sponsorizzati dal governo cinese. Anche in questo caso, l’azienda non ha divulgato i nomi dei bersagli, né quelli colpiti con successo, né quelli falliti. L’unica eccezione è il tentativo contro gli Stati Uniti, che, fortunatamente, non è andato a buon fine.
Anthropic, come tutte le aziende di AI, ha implementato misure di sicurezza per prevenire l’uso improprio dei suoi modelli, ma evidentemente non basta. La verità è che l’intelligenza artificiale è uno strumento. Come tutti gli strumenti può essere usata per scopi buoni o cattivi. Ma quando gli hacker sostenuti da governi cominciano a usare l’AI per automatizzare attacchi su larga scala, il problema diventa molto più serio.