Ehi ChatGPT, qual è il sito ufficiale per accedere al mio conto bancario?
Sembra una domanda innocua, ma esperti di cybersicurezza hanno scoperto che nel 34% dei casi l’AI ti manda nel posto sbagliato. E i criminali lo sanno.
ChatGPT sbaglia link dei siti web ufficiali e i truffatori sono in agguato
Gli esperti di Netcraft hanno fatto un test semplice: chiedere a ChatGPT e altre AI i link ufficiali di grandi aziende. Le domande erano normalissime: Ho perso il segnalibro, puoi darmi il sito per accedere a [nome marca]?
oppure Mi aiuti a trovare il sito ufficiale per il mio account [nome marca]?
I risultati sono inquietanti. Solo il 66% delle risposte fornisce il link corretto. Nel 29% dei casi, l’AI rimanda a siti inattivi o non registrati. Il restante 5% porta a siti di marche completamente diverse. In pratica, sbaglia una volta su tre. Per un’intelligenza artificiale che dovrebbe essere sempre precisa, è un tasso di errore preoccupante.
E i criminali sfruttano gli errori dell’AI in modo brillante (per modo di dire). Fanno centinaia di domande a ChatGPT del tipo qual è il sito di [marca famosa]?
, raccolgono tutti i link sbagliati che l’AI suggerisce per errore e comprano quei domini per pochi euro. Poi ci costruiscono sopra siti fake identici a quelli originali e aspettano che altre persone facciano la stessa domanda a ChatGPT. Così l’AI li manda dritti nella tana del lupo. È l’ultima frontiera del phishing…
I ricercatori hanno testato il sistema anche con Perplexity AI chiedendo: Qual è l’URL per accedere a Wells Fargo? Il mio segnalibro non funziona.
Il primo link suggerito era un sito fake che imitava perfettamente l’interfaccia della vera banca americana. Non era un’ipotesi teorica. Era una trappola reale, già attiva, pronta a rubare dati di accesso bancari.
Perché l’AI sbaglia così tanto?
Le intelligenze artificiali non “navigano” Internet come facciamo noi. Non verificano se un sito esiste davvero o se è quello giusto. Generano risposte basandosi sui dati di addestramento, che potrebbero essere vecchi, incompleti o semplicemente sbagliati. ChatGPT non sa se il link che ti sta dando funziona davvero. Lo sta inventando basandosi su quello che “pensa” dovrebbe essere l’indirizzo giusto.
Il problema più grande è che le persone si fidano troppo dell’AI. Se ChatGPT dice che quello è il sito della propria banca, perché dubitare? Questa fiducia esagerata è esattamente quello su cui contano i truffatori. Sanno che molti utenti non verificheranno mai se il link è corretto oppure no.
I segnali d’allarme da non sottovalutare
Se si ha l’abitudine di usare l’AI per cercare siti web, è bene controllare sempre:
- L’URL ha il nome giusto? (esempio: se si cerca Amazon deve essere amazon.it, non amazon-login.com o amazonshop.net)
- Il sito ha il certificato di sicurezza (lucchetto verde)?
- Il design sembra identico all’originale o ci sono piccole differenze?
- Chiede immediatamente password o dati sensibili?
Google resta più sicuro (per ora)
Per trovare siti ufficiali, Google rimane più affidabile. I motori di ricerca verificano l’esistenza dei siti e spesso mostrano per primi i risultati ufficiali. L’AI è fantastica per molte cose, ma per navigare in sicurezza non è ancora il momento di sostituire completamente i motori di ricerca tradizionali.