Hacker cinesi usano l'IA per ingannare gli elettori

Hacker cinesi usano l'IA per ingannare gli elettori

Microsoft ha rilevato un uso crescente dell'IA generativa per influenzare le elezioni attraverso deepfake (immagini, audio e video) sui social media.
Hacker cinesi usano l'IA per ingannare gli elettori
Microsoft ha rilevato un uso crescente dell'IA generativa per influenzare le elezioni attraverso deepfake (immagini, audio e video) sui social media.

Cybercriminali affiliati al Partito Comunista Cinese usano i social media per influenzare le elezioni negli Stati Uniti. In molti casi cercano di ingannare i cittadini attraverso contenuti generati dall’intelligenza artificiale. Hacker della Corea del Nord hanno invece incrementato il furto di criptovalute per finanziare gli obiettivi militari.

IA generativa per attività illecite

Nel report del Microsoft Threat Analysis Center (MTAC) viene descritta una campagna avviata nel 2022 da gruppi affiliati al Partito Comunista Cinese per influenzare le elezioni di metà mandato negli Stati Uniti e proseguita fino ad oggi. Attraverso numerosi account sui social media, i cybercriminali pubblicano post con video, meme e infografiche per individuare gli argomenti che possono dividere gli elettori.

Sfruttando l’intelligenza artificiale, il gruppo denominato Storm-1376 (noto anche come Spamouflage o Dragonbridge) ha avviato varie campagne di influenza con immagini fasulle per attribuire la responsabilità al governo statunitense, come l’incendio a Maui di agosto 2023, il deragliamento di un treno nel Kentucky e l’avvelenamento dell’acqua in altri paesi. Lo stesso gruppo ha cercato di influenzare le elezioni presidenziali a Taiwan tramite deepfake audio e video.

Il report del MTAC descrive anche le attività dei cybercriminali nordcoreani, principalmente specializzati nel furto di criptovalute (oltre 3 miliardi di dollari dal 2017) che vengono usate per finanziare il programma militare del paese. I bersagli preferiti sono organizzazioni e agenzie governative di Stati Uniti, Giappone e Corea del Sud.

Il gruppo noto come Emerald Sleet ha sfruttato i modelli di IA generativa per la ricerca di vulnerabilità e la scrittura dei messaggi di spear phishing. Microsoft e OpenAI hanno disattivato gli account usati per queste attività.

Fonte: Microsoft
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 apr 2024
Link copiato negli appunti