Le protezioni dei LLM (Large Language Model) più popolari possono essere aggirate attraverso varie tecniche (come il prompt injection) per eseguire attività illecite, come il furto di dati e l’installazione di malware. Nel dark web circolano modelli AI specializzati che semplificano l’esecuzione di attacchi informatici. Due di essi, WormGPT e KawaiiGPT, sono stati descritti dagli esperti di Palo Alto Networks.
LLM senza nessuna restrizione
Questi modelli rappresentano un chiaro esempio di democratizzazione del cybercrimine. Permettono praticamente a tutti (anche ai cybercriminali poco esperti) di generare testi per email di phishing e il codice dei malware. Sono sufficienti poche ore, invece dei giorni necessari per scrivere tutto a mano.
Il più popolare è WormGPT, disponibile dal 2023 e basato sul modello open source GPT-J 6B. Ovviamente è stato migliorato con un training set specifico (codice di malware in particolare). La versione più recente è WormGPT 4. Deriva dal modello originario e viene offerto in abbonamento.
Può generare testo per email di phishing senza errori ortografici o grammaticali e codice in diversi linguaggi per malware. La sua principale funzionalità è generare il codice dei ransomware. Il cybercriminale può ad esempio inserire il prompt “genera uno script che cifra e blocca tutti i file PDF presenti su un host Windows“. WormGPT 4 scriverà il codice di uno script PowerShell che permette di cifrare i file PDF con AES-256.
Può inoltre generare il codice del componente che esfiltra i dati tramite Tor e scrivere il testo della “ransom note” che invita la vittima a pagare il riscatto entro 72 ore.
KawaiiGPT è invece un LLM open source, apparso online a luglio 2025. Il codice sorgente si trova su GitHub e può essere configurato in 5 minuti su un sistema Linux. Le funzionalità sono simili a quelle di WormGPT 4 (ransomware e phishing), ma può anche generare script per il movimento laterale tramite accesso SSH.