AI e sicurezza informatica: il rapporto di Kaspersky

AI e sicurezza informatica: il rapporto di Kaspersky

Nel loro ultimo report, gli esperti di Kaspersky rivelano la forte influenza dell'IA sul panorama della cybersecurity del 2023.
AI e sicurezza informatica: il rapporto di Kaspersky
Nel loro ultimo report, gli esperti di Kaspersky rivelano la forte influenza dell'IA sul panorama della cybersecurity del 2023.

Il report annuale di Kaspersky offre una panoramica approfondita dell’impatto dell’AI sulla cybersecurity nel 2023. Il report analizza le sfide e le opportunità che l’intelligenza artificiale presenta per i criminali informatici, ma anche per chi sta dall’altra parte, a difendere la nostra sicurezza.

L’AI, una tecnologia chiave per la sicurezza e la privacy

L’AI è diventata la parola d’ordine nel mondo tecnologico e sociale. Con l’avvento di modelli linguistici di grandi dimensioni (LLM), l’intelligenza artificiale ha acquisito un ruolo centrale nella cybersecurity. I ricercatori di Kaspersky mostrano come sia stata usata sia per scopi malevoli che benevoli nel 2023. Il report esamina anche le tendenze future delle minacce legate a questa nuova tecnologia.

Nuove vulnerabilità generate dall’AI

L’uso di LLM in vari prodotti consumer ha creato nuove vulnerabilità all’interfaccia tra l’AI generativa probabilistica e le tecnologie deterministiche tradizionali. Queste vulnerabilità hanno aumentato la superficie di attacco che i professionisti della sicurezza informatica devono difendere. Il report suggerisce che gli sviluppatori dovrebbero implementare nuove misure di sicurezza, come il consenso dell’utente per le azioni avviate dagli agenti LLM.

Un assistente AI per la cybersecurity

I red teamer e i ricercatori hanno sfruttato l’intelligenza artificiale generativa per creare strumenti innovativi di cybersecurity. Questi strumenti potrebbero portare alla creazione di un assistente che usa l’LLM o l’apprendimento automatico (ML). Questo assistente potrebbe automatizzare le attività di red teaming, fornendo suggerimenti basati sui comandi eseguiti in un ambiente di pentesting.

Le reti neurali per le truffe online

Nel 2024, i truffatori potrebbero usare le reti neurali per generare contenuti fraudolenti più credibili. Con la capacità di produrre immagini e video realistici, i cybercriminali potrebbero aumentare il livello delle minacce informatiche legate a frodi e truffe. Il report avverte che gli utenti dovrebbero essere più cauti e critici nei confronti dei contenuti online.

L’AI non cambierà radicalmente il panorama delle minacce nel 2024

Nonostante le tendenze descritte, gli esperti di Kaspersky sono scettici sul fatto che l’AI possa rivoluzionare il panorama delle minacce in tempi brevi. Se i criminali informatici usano l’intelligenza artificiale generativa, lo stesso vale per i professionisti della sicurezza informatica, che faranno leva sugli stessi strumenti, o addirittura più avanzati, per migliorare la sicurezza di software e reti. Questo rende improbabile una modifica drastica del panorama degli attacchi.

Più regolamentazione dell’AI, con il contributo del settore privato

Con lo sviluppo di una tecnologia in rapida crescita, la regolamentazione dell’AI è diventata una questione politica. Il numero di iniziative normative legate all’intelligenza artificiale è destinato ad aumentare. Gli attori non statali, come le aziende tecnologiche, possono dare un contributo prezioso alle discussioni sulla regolamentazione dell’IA, grazie alla loro esperienza nello sviluppo e nell’utilizzo dell’IA.

Watermark per i contenuti generati dall’AI

Per segnalare o identificare i contenuti generati dall’intelligenza artificiale saranno necessarie ulteriori normative e politiche dei fornitori di servizi, che continueranno a investire in tecnologie per il rilevamento. Gli sviluppatori e i ricercatori, da parte loro, contribuiranno ai metodi di watermark dei media AI per facilitarne l’identificazione e la provenienza.

L’intelligenza artificiale nella sicurezza informatica è un’arma a doppio taglio. Le sue capacità di adattamento rafforzano le nostre difese, offrendo uno scudo proattivo contro le minacce in evoluzione. Tuttavia, presenta anche dei rischi, poiché gli aggressori sfruttano l’AI per creare attacchi più sofisticati“, ha dichiarato Vladislav Tushkanov, esperto di sicurezza di Kaspersky. “Trovare il giusto equilibrio, assicurando un uso responsabile senza condividere eccessivamente i dati sensibili, è fondamentale per proteggere le nostre frontiere digitali“.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 13 dic 2023
Link copiato negli appunti