Assistenti vocali nel mirino: vulnerabili ad attacchi audio

Assistenti vocali nel mirino: vulnerabili ad attacchi audio

Secondo uno studio di Amazon Web Services, gli assistenti vocali possono essere ingannati da attacchi vocali per produrre risposte dannose.
Assistenti vocali nel mirino: vulnerabili ad attacchi audio
Secondo uno studio di Amazon Web Services, gli assistenti vocali possono essere ingannati da attacchi vocali per produrre risposte dannose.

Uno studio condotto da ricercatori di Amazon Web Services ha evidenziato significative falle di sicurezza nei modelli linguistici di grandi dimensioni capaci di comprendere e rispondere al parlato come gli assistenti vocali. Il documento, intitolato “SpeechGuard: Exploring the Adversarial Robustness of Multimodal Large Language Models“, descrive in dettaglio come Siri, Alexa, ecc. possano essere manipolati per produrre risposte dannose o non etiche attraverso attacchi audio accuratamente progettati.

Assistenti vocali AI facilmente ingannabili

Con la crescente diffusione delle interfacce vocali, dagli altoparlanti intelligenti agli assistenti AI, garantire la sicurezza e la robustezza della tecnologia sottostante diventa di fondamentale importanza.

Tuttavia, i ricercatori dell’AWS hanno scoperto che, nonostante i controlli di sicurezza incorporati, i sistemi di intelligenza artificiale che comprendono il linguaggio vocale sono facilmente ingannabili da piccole modifiche audio impercettibili all’orecchio umano. Questi attacchi, chiamati Adversarial Machine Learning, riescono a manipolare l’input in modo da alterare completamente il comportamento del modello AI, rendendolo vulnerabile a comandi dannosi o non etici.

I ricercatori di Amazon, utilizzando tecniche di modifica mirata dell’audio in ingresso, sono riusciti nel 90% dei casi a far produrre all’AI risposte dannose e non etiche, come discorsi di odio e contenuti violenti. Questi risultati preoccupanti dimostrano che tali sistemi AI possono essere facilmente manipolati da malintenzionati, sfruttando piccole variazioni audio impercettibili all’orecchio umano. I ricercatori avvertono del grave rischio che queste vulnerabilità vengano utilizzate per compromettere su vasta scala assistenti vocali come Alexa, Siri e Google Assistant.

Attacchi black-box

Ancora più allarmante è il fatto che lo studio abbia dimostrato come gli attacchi audio realizzati su un SLM spesso si trasferiscano ad altri modelli, anche senza accesso diretto – uno scenario realistico, dato che la maggior parte dei fornitori commerciali consente solo un accesso API limitato. Sebbene il tasso di successo sia sceso al 10% in questa situazione, rappresenta comunque una grave vulnerabilità.

Le implicazioni sono di vasta portata, considerando che le aziende si affidano sempre più all’intelligenza artificiale per il servizio clienti, l’analisi dei dati e altre funzioni fondamentali. Oltre ai danni alla reputazione causati da un’AI che si comporta in modo scorretto, gli Adversarial Machine Learning potrebbero essere utilizzati per frodi, spionaggio o persino danni fisici se collegati a sistemi automatizzati.

Le contromisure

I ricercatori propongono diverse contromisure, come l’aggiunta di rumore casuale all’input audio – una tecnica nota come smoothing. Negli esperimenti, questa tecnica ha ridotto significativamente la percentuale di successo dell’attacco. Tuttavia, gli autori avvertono che non si tratta di una soluzione definitiva.

Con la corsa allo sviluppo e implementazione delle AI vocali sempre più potenti da parte delle aziende, questa ricerca rappresenta un avvertimento da non prendere sotto gamba.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
17 mag 2024
Link copiato negli appunti