Il Threat Intelligence Group di Google ha scoperto cinque malware sviluppati con tool di intelligenza artificiale generativa. Due di essi possono utilizzare i LLM (Large Language Model) in modalità “just-in-time”, ovvero durante l’esecuzione. Fortunatamente sono sperimentali, quindi non causano danni comparabili a quelli di malware tradizionali e possono essere facilmente rilevati (per adesso).
Descrizione dei malware AI
I cinque malware individuati da Google sono FRUITSHELL, PROMPTLOCK, QUIETVAULT, PROMPTFLUX e PROMPTSTEAL. Gli ultimi due hanno funzionalità mai viste prima. Possono generare dinamicamente script dannosi, offuscano il proprio codice per eludere il rilevamento e sfruttano i modelli AI per creare funzioni su richiesta. Sono ancora in fase sperimentale, ma rappresentano un passo significativo verso malware autonomi e adattabili.
PROMPTFLUX è un dropper scritto in VBScript e usa le API di Gemini per generare codice durante l’esecuzione. Ciò permette di aggirare le rilevazioni attraverso i metodi statici basati sulle firme. In dettaglio, il malware utilizza un modulo chiamato Thinking Robot che invia al modello Gemini 1.5 Flash un prompt per riscrivere il codice sorgente ogni ora.
Il malware cerca inoltre di copiare se stesso sulle unità rimovibili e condivisioni di rete. Gli esperti di Google hanno notato che non è attualmente in grado di infettare i dispositivi. L’accesso a Gemini è stato comunque disattivato e Google DeepMind ha aggiunto nuove protezioni per impedire l’abuso dei modelli AI.
PROMPTSTEAL è invece un data miner che sfrutta il modello Qwen2.5-Coder-32B-Instruct (ospitato su Hugging Face) per generare comandi durante l’esecuzione. I comandi permettono di raccogliere informazioni sul dispositivo e rubare documenti. È stato utilizzato da cybercriminali russi per attacchi contro bersagli in Ucraina.
FRUITSHELL è una reverse shell scritta in PowerShell che stabilisce una connessione remota al server C2C (command and control) consentendo l’esecuzione di comandi sul dispositivo. In questo caso, i prompt sono scritti nel codice. Il malware è stato già usato per attacchi.
QUIETVAULT è un credential stealer (giù utilizzato per attacchi) scritto in JavaScript che sfrutta modelli AI per cercare credenziali nei repository di GitHub. Infine, PROMPTLOCK è un ransomware sperimentale multi-piattaforma scritto in Go che utilizza un LLM (gpt-oss:20b) per generare script Lua durante l’esecuzione. È stato descritto da ESET a fine agosto.