L’agenzia britannica per la sicurezza informatica, il National Cyber Security Centre (NCSC), ha lanciato un avvertimento sulle possibili conseguenze dell’uso dell’intelligenza artificiale da parte di hacker e malintenzionati. Secondo l’NCSC, l’AI potrebbe rendere più difficile riconoscere le truffe online come le email di phishing, anche quelle che richiedono di reimpostare le password.
L’impatto dell’AI sulle minacce informatiche
Nella sua ultima valutazione dell’impatto dell’AI sulle minacce informatiche che incombono sul Regno Unito, l’NCSC ha affermato che l’intelligenza artificiale aumenterà “quasi certamente” il volume e l’impatto degli attacchi informatici nei prossimi due anni. In particolare, l’AI generativa e i modelli linguistici di grandi dimensioni (LLM) renderanno più complessa l’identificazione dei diversi tipi di attacco, come il phishing, lo spoofing e l’ingegneria sociale, che mirano a indurre le persone a rivelare dati o materiale riservato.
L’NCSC ha previsto che, entro il 2025, sarà difficile per chiunque, a prescindere dal suo livello di competenza in materia di cybersicurezza, valutare l’autenticità di un’e-mail o di una richiesta di reimpostazione della password, o riconoscere i tentativi di phishing, spoofing o social engineering.
L’aumento degli attacchi ransomware
Un altro fenomeno in crescita, secondo l’NCSC, è quello degli attacchi ransomware, che consistono nel bloccare i sistemi informatici delle vittime, estrarre dati sensibili e chiedere un riscatto per riottenerli. Questo tipo di attacco ha colpito nell’ultimo anno istituzioni come la British Library e la Royal Mail.
L’NCSC ha avvertito che la sofisticazione dell’IA “abbassa la barriera” per i criminali informatici e gli hacker dilettanti, facilitando loro l’accesso ai sistemi e la raccolta di informazioni sugli obiettivi. Inoltre, l’NCSC ha dichiarato che gli strumenti di AI generativa hanno già contribuito a rendere più convincenti gli approcci alle potenziali vittime, creando falsi “documenti di richiamo” privi degli errori che tradizionalmente rivelavano gli attacchi di phishing.
Tuttavia, l’agenzia britannica ha affermato che l’AI generativa, pur essendo un valido strumento di codifica, non aumenterà l’efficacia del codice ransomware, ma lo aiuterà a selezionare e identificare gli obiettivi.
Gli esperti chiedono misure più dure
L’NCSC ha specificato che l’intelligenza artificiale può fungere anche da strumento difensivo, consentendo di rilevare gli attacchi e progettare sistemi più sicuri. Il rapporto è stato presentato contestualmente alle nuove linee guida definite dal governo britannico per incoraggiare le aziende a potenziare le difese contro gli attacchi ransomware. Il “Cyber Governance Code of Practice” punta a dare alla sicurezza informatica la stessa priorità della gestione finanziaria e legale, come dichiarato dall’NCSC.
Tuttavia, gli esperti di cybersicurezza chiedono interventi più incisivi. Secondo Ciaran Martin, ex direttore NCSC, se enti pubblici e privati non modificheranno radicalmente il loro approccio alla minaccia ransomware, è probabile che nei prossimi 5 anni si verifichi un incidente gravissimo come l’attacco subito dalla British Library.