Google trova un bug in SQLite con l'agente AI Big Sleep

Google trova un bug in SQLite con l'agente AI Big Sleep

L'agente AI Big Sleep, sviluppato da Google DeepMind e Google Project Zero, ha permesso di individuare una vulnerabilità critica in SQLite.
Google trova un bug in SQLite con l'agente AI Big Sleep
L'agente AI Big Sleep, sviluppato da Google DeepMind e Google Project Zero, ha permesso di individuare una vulnerabilità critica in SQLite.

Big Sleep ha permesso di scoprire numerose vulnerabilità software da novembre ad oggi. L’agente AI, sviluppato da Google DeepMind e Google Project Zero, ha rilevato recentemente un bug in SQLite. L’azienda di Mountain View ha annunciato alcune funzionalità di sicurezza che sfruttano l’intelligenza artificiale. Verranno illustrate durante le conferenze Black Hat USA e DEF CON 33.

Big Sleep anticipa i cybercriminali

Big Sleep è stato annunciato il 1 novembre 2024. Sfrutta i Large Language Model (LLM) per individuare vulnerabilità nei software. La prima, uno stack buffer overflow, è stata scoperta all’inizio di ottobre 2024 in SQLite, una database engine open source molto popolare. Fortunatamente il bug è stato risolto subito, prima del rilascio ufficiale della versione 3.47.

A fine giugno, Big Sleep ha trovato un’altra vulnerabilità in SQLite, indicata con CVE-2025-6965 e risolta nella versione 6.50.2. Poteva essere sfruttata per iniettare istruzioni SQL arbitrarie in un’applicazione e causare un integer overflow con conseguente lettura della fine di un array.

Google scrive che l’agente AI ha permesso di bloccare in anticipo lo sfruttamento della vulnerabilità, in quanto l’exploit era già in circolazione. Grazie all’intelligenza artificiale è possibile migliorare la sicurezza dei progetti open source ampiamente utilizzati, consentendo ai team di sicurezza di concentrarsi sulle minacce ad alta complessità.

L’azienda di Mountain View sottolinea però che questo lavoro deve essere svolto in modo sicuro e responsabile. La creazione di agenti AI deve avvenire in modo da salvaguardare la privacy e mitigare i rischi di azioni illecite. Gli agenti AI devono inoltre operare con la supervisione umana.

Durante le prossime conferenze sulla cybersicurezza, Google mostrerà il funzionamento di Timesketch e FACADE. La prima è una piattaforma per le indagini forensi digitali basata sul modello Sec-Gemini. Il secondo è invece un tool per la rilevazione delle minacce.

Fonte: Google
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 lug 2025
Link copiato negli appunti