Google smonta il mito dei malware AI, niente panico (per ora)

Google smonta il mito dei malware AI, niente panico (per ora)

Una recente analisi di Google smonta il mito dei malware AI inarrestabili. Sono maldestri e facilmente rilevabili anche da difese basilari.
Google smonta il mito dei malware AI, niente panico (per ora)
Una recente analisi di Google smonta il mito dei malware AI inarrestabili. Sono maldestri e facilmente rilevabili anche da difese basilari.

Per mesi il mondo della cybersecurity ha tremato all’idea di malware “dopati” dall’intelligenza artificiale. Programmi che imparano, mutano, si adattano. Cyberattacchi autonomi praticamente impossibili da fermare. Gli antivirus obsoleti, gli hacker diventati dei supervillain… Sembrava l’apocalisse informatica.

E poi arriva Google e dice: calma ragazzi, non è così. Una recente analisi di Big G ha passato al setaccio diverse famiglie di malware che sfruttano l’intelligenza artificiale, programmi con nomi inquietanti come PROMPTFLUX e PROMPTSTEAL che sembravano pronti a distruggere Internet. Il risultato? Sono goffi, facilmente individuabili, e fondamentalmente deludenti.

Malware AI meno pericolosi del previsto, secondo una ricerca di Google

Google ha analizzato in dettaglio questi nuovi malware che usano i grandi modelli linguistici, tipo Gemini, per tentare di mascherare le loro attività o generare comandi malevoli. In teoria sembra terrificante, un virus che usa l’AI per nascondersi meglio, per diventare invisibile agli antivirus tradizionali.

Nella pratica? Sono un bel po’ maldestri. Il loro codice, anche se generato da un’AI, è facilmente rilevabile anche da meccanismi di difesa basilari. I ricercatori di Google quasi ironizzano sulla loro mancanza di persistenza e sulle tecniche di evasione rudimentali, ben lontane dagli standard del crimine organizzato attuale.

Più che creare minacce rivoluzionarie, i cybercriminali sembrano usare l’intelligenza artificiale per automatizzare compiti noiosi come scrivere email di phishing più convincenti o debuggare codice malevolo. Non cambia fondamentalmente la natura degli attacchi, li rende solo più facili da eseguire. Non sono diventati più sofisticati o impossibili da fermare.

L’AI non crea nuove minacce, piuttosto le perfeziona. Prende tecniche già esistenti, e le rende leggermente più efficienti. Ma se la tecnica di base è sciocca o eseguita male, l’AI non la trasforma in un capolavoro. spazzatura dentro, spazzatura fuori, come si dice nell’informatica.

Le vere minacce sono sempre le stesse

Google riporta un po’ di razionalità in un dibattito che ne aveva disperatamente bisogno. La vera minaccia non viene da programmi fantascientifici generati dall’AI, ma dalle stesse vecchie tecniche che funzionano da decenni, sfruttare vulnerabilità non corrette e rubare credenziali.

Gli hacker non hanno bisogno dell’AI per entrare nei propri sistemi se si usa “password123” come password… Non serve un malware super-intelligente se non si aggiorna mai il software e ci sono falle di sicurezza grandi come portoni. E soprattutto, non serve nulla di sofisticato se le persone continuano a cliccare su email di phishing che dicono “URGENTE: verifica il tuo account bancario cliccando qui”.

Il crimine informatico funziona perché le persone fanno errori stupidi, le aziende risparmiano sulla sicurezza, e i sistemi hanno dei bug. L’AI non cambia questa equazione fondamentale. Al massimo accelera il processo o lo rende leggermente più scalabile.

L’effervescenza mediatica intorno ai malware AI era prevedibile. Ogni volta che “intelligenza artificiale” e “cybersecurity” appaiono nella stessa frase, i titoli diventano apocalittici. Ci piace l’idea dell’AI malevola e autonoma perché è un ottimo scenario da film. Black Mirror, Matrix, Terminator, abbiamo decenni di cultura pop che ci ha preparato a temere le macchine intelligenti.

Ma la realtà è molto più prosaica. Gli hacker usano l’AI come usano qualsiasi altro strumento: quando serve, quando rende le cose più facili, quando risparmia tempo. Tutto qui. Forse è deludente, ma è anche rassicurante.

Cosa dovremmo davvero temere?

Se non dovremmo avere paura dei malware AI, di cosa dovremmo aver paura, allora? La risposta di Google è semplice: delle stesse cose di sempre. Falle non corrette, password deboli, utenti non addestrati, sistemi non aggiornati.

L’AI può rendere gli attacchi leggermente più efficienti, ma se le difese di base sono solide, non fa molta differenza. La conclusione di Google è che prima di temere un’intelligenza artificiale fuori controllo, ci si dovrebbe assicurare che le password non siano “password” o “123456”. Prima di investire miliardi in difese contro AI malvagie, si dovrebbero forse correggere le vulnerabilità note che esistono da anni.

Non significa che l’AI non cambierà mai il panorama della cybersecurity. Potrebbe, in futuro, quando diventerà più sofisticata e quando gli hacker impareranno a usarla meglio. Ma per ora, nel 2025, i malware AI sono più un hype mediatico che una minaccia reale.

Fonte: Ars Technica
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 nov 2025
Link copiato negli appunti