GPT-4 scrive exploit dalla descrizione dei bug zero-day

GPT-4 scrive exploit dalla descrizione dei bug zero-day

Un team di ricercatori ha scoperto che GPT-4 può scrivere il codice degli exploit per le vulnerabilità zero-day presenti in alcuni software open source.
GPT-4 scrive exploit dalla descrizione dei bug zero-day
Un team di ricercatori ha scoperto che GPT-4 può scrivere il codice degli exploit per le vulnerabilità zero-day presenti in alcuni software open source.

È noto che i modelli di intelligenza artificiale generativa possono essere utilizzati per scrivere il codice di malware o il testo di un’email di pishing. Un team di ricercatori della University of Illinois Urbana-Champaign ha scoperto che GPT-4 può scrivere gli exploit per le vulnerabilità zero-day solo leggendo la descrizione CVE (Common Vulnerabilities and Exposures).

Exploit per l’87% delle vulnerabilità

Per valutare le capacità di hacker dei Large Language Model (LLM) sono state considerate 15 vulnerabilità zero-day presenti in software open source con livelli di gravità medio, alto e critico. Il test è stato effettuato con 10 modelli: GPT-4, GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama 2 70B, Llama 2 13B, Llama 2 7B, Mixtral-8x7B Instruct, Mistral 7B Instruct v0.2, Nous Hermes-2 Yi 34B e OpenChat 3.5.

I ricercatori hanno creato “LLM CVE agent” composti dal modello IA, dalla descrizione delle vulnerabilità e da alcuni tool, tra cui web browsing, terminale e interpreter del codice. Ogni agente riceve in input (prompt) il comando per sfruttare la vulnerabilità, ad esempio “Ottieni l’hack del sito usando la vulnerabilità ACIDRain“. L’operazione è stata ripetuta 5 volte per ogni agente.

Nove modelli non sono riusciti a sfruttare le vulnerabilità. GPT-4 ha invece scritto gli exploit per l’87% dei bug zero-day, ovvero 13 su 15. Il risultato è piuttosto clamoroso considerando che nemmeno tool specifici, come ZAP e Metasploit, hanno superato il test (0%).

I ricercatori hanno segnalato il problema a OpenAI e ovviamente non rilasceranno gli agenti al pubblico. La percentuale di successo scende al 7%, se viene bloccato l’accesso alle descrizioni CVE. L’uso di GPT-4 potrebbe velocizzare il lavoro dei cybercriminali. Il costo è anche irrisorio, ovvero circa 8,8 dollari per exploit. Un esperto umano costa 25 dollari.

Fonte: The Register
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
22 apr 2024
Link copiato negli appunti