I modelli linguistici di grandi dimensioni sono diventati una nuova arma nelle mani di hacker che sfruttano l’intelligenza artificiale per scopi malevoli. Gli LLM vengono già utilizzati per generare e-mail di phishing credibili, orchestrare attacchi di social engineering e creare varianti più sofisticate di ransomware.
Ma il team IBM Threat Intelligence si è spinto decisamente oltre, dimostrando come gli LLM possano alterare una conversazione dal vivo, sostituendo dati finanziari reali con falsi. Per mettere in piedi questo proof-of-concept, sono bastati 3 secondi di registrazione vocale… IBM definisce il risultato “spaventosamente facile“. L’interlocutore non si è accorto che le istruzioni e le informazioni sul conto fossero false.
Manipolare in tempo reale le conversazioni vocali sfruttando tecniche AI
L’audio jacking consiste nell’intercettare e modificare le conversazioni dal vivo senza che le parti coinvolte se ne rendano conto. Si tratta di un nuovo tipo di attacco basato sull’intelligenza artificiale generativa, che sfrutta gli LLM per creare risposte false in tempo reale durante una telefonata.
IBM è riuscita a modificare una transazione finanziaria intercettata, reindirizzando il denaro verso un conto falso senza destare sospetti. Sono bastati solo 3 secondi di registrazione vocale per addestrare l’LLM e rendere credibili le risposte manipolate. La facilità con cui il team ha realizzato l’attacco è preoccupante. L’audio jacking potrebbe essere utilizzato per frodi mirate su larga scala.
Come funziona l’audio jacking: il ruolo della parola chiave “conto bancario”
L’audio jacking sfrutta l’intelligenza artificiale per intercettare e sostituire parole chiave nel contesto di una conversazione. Nel proof of concept IBM, i ricercatori hanno usato “conto bancario” come termine target, rimpiazzandolo con dati di conti falsi generati dall’LLM.
Come spiegato da Chenta Lee, chief architect della threat intelligence IBM, “abbiamo scelto ‘conto bancario’ come parola chiave, così ogni volta che qualcuno comunicava il proprio numero, l’LLM lo sostituiva con uno falso. In questo modo gli hacker possono dirottare transazioni finanziarie verso conti di loro controllo, clonando la voce senza destare sospetti. Le persone coinvolte diventano inconsapevoli burattini, ed è difficile rilevare la manipolazione dato il contesto originale preservato“.
Come difendersi dall’audio jacking
L’audio jacking può essere effettuato con qualsiasi dispositivo che abbia accesso a un LLM. IBM lo definisce un attacco silenzioso, perché non lascia tracce evidenti. Lee spiega che ci sono diversi modi per attuare questo attacco. Ad esempio, si può usare un malware installato sui telefoni delle vittime o un servizio VoIP danneggiato o compromesso. In alcuni casi, gli attaccanti potrebbero anche chiamare due vittime allo stesso tempo e farle parlare tra loro, ma questo richiederebbe abilità avanzate di social engineering.
Per prevenire attacchi di audio jacking, è fondamentale utilizzare dispositivi e servizi online affidabili e protetti. Si consiglia di limitare l’accesso ai soli dispositivi e servizi necessari per l’attività aziendale, applicando sempre gli ultimi aggiornamenti e patch di sicurezza. È importante assumere un approccio “zero trust” verso qualsiasi dispositivo o servizio, presumendo potenziali violazioni e applicando rigorosamente l’accesso con privilegi minimi. La sicurezza richiede attenzione costante agli aggiornamenti e una mentalità prudente che non dia nulla per scontato.