Deepfake: non possiamo più fidarci della voce

La simulazione della voce tramite IA consente attacchi di tipo deepfake con conseguenze potenzialmente deleterie: ecco quanto accaduto ad una azienda.
La simulazione della voce tramite IA consente attacchi di tipo deepfake con conseguenze potenzialmente deleterie: ecco quanto accaduto ad una azienda.

Prima vennero di virus, e ci portarono via la sicurezza nel nostro pc. Poi vennero i worm, e ci portarono via la sicurezza nelle altrui mail. Poi venne il phishing e ci portò via la sicurezza nell’altrui identità. Infine venne il deepfake ci tolse ogni residua sicurezza. Perché se anche della voce non potremo più fidarci, allora in discussione c’è gran parte delle interazioni che le persone hanno abitualmente, considerando da sempre ragionevolmente sicuro quel tipo di esperienza.

A pagarne le spese è stata un’azienda con sedi dislocate tra Regno Unito e Germania, ove una telefonata fasulla è costata 243 mila dollari. Si va ben oltre lo scherzo telefonico e la capacità di un imitatore: tutto ciò è accaduto facendo cadere la vittima sotto i colpi di una falsificazione orchestrata grazie all’Intelligenza Artificiale. La nuova frontiera del cybercrime, insomma, è servita.

Deepfake: così è avvenuto l’attacco

Alla filiale inglese giunge una telefonata da quello che appare come l’amministratore delegato del gruppo: in lingua inglese, con accento tedesco, con voce che impersonifica alla perfezione il timbro del CEO, viene impartito l’ordine di effettuare un trasferimento di denaro verso un fornitore ungherese con tanto di dettagli sulle pratiche che ne sarebbero seguite. Chi ha ricevuto la telefonata ammette di non aver avuto il benché minimo dubbio sulla bontà della voce e sull’identità dell’interlocutore, così ha eseguito i comandi portando immediatamente a termine il pagamento.

I dubbi sono invece sorti nel momento in cui una ulteriore chiamata ha chiesto un ulteriore pagamento di simile caratura: a questo punto il coordinatore della filiale inglese ha interrotto la pratica e ha sollevato dubbi su quanto in esecuzione. Di qui la scoperta dell’accaduto, la denuncia e l’inizio delle investigazioni da parte degli inquirenti.

L’incidente, accaduto nel mese di marzo presso un’azienda rimasta nell’anonimato, sarebbe esempio e probabilmente avanguardia di quella che è una nuova modalità di attacco sfruttando l’IA: grazie ai deepfake si potrebbero spostare capitali, voti, decisioni strategiche, diplomazie e quant’altro. La certificazione dell’identità diventa pertanto cruciale in prospettiva poiché grazie all’IA non è più assolutamente possibile ipotizzare che un computer non riesca ad imitare alla perfezione una voce altrui, simulando inoltre una conversazione e riuscendo così a portare a termine un phishing ben più profondo e pericoloso.

Link copiato negli appunti

Ti potrebbe interessare

04 09 2019
Link copiato negli appunti