ChatGPT può scoprire dove è stata scattata una foto, è terrificante

ChatGPT può scoprire dove è stata scattata una foto, è terrificante

È diventato virale l'utilizzo di ChatGPT per riconoscere i luoghi partendo dalle fotografie, un trend che mette a rischio la privacy.
ChatGPT può scoprire dove è stata scattata una foto, è terrificante
È diventato virale l'utilizzo di ChatGPT per riconoscere i luoghi partendo dalle fotografie, un trend che mette a rischio la privacy.

L’ultima moda che spopola sul web? Usare ChatGPT per scoprire la posizione geografica immortalata nelle immagini. Un trend divertente, ma non privo di rischi per la privacy.

ChatGPT, nuovo trend: scoprire posizione geografica dalle foto

Tutto è iniziato con il lancio dei nuovi modelli AI di OpenAI, o3 e o4-mini. Questi sistemi hanno una caratteristica unica: possono “ragionare” sulle immagini caricate dagli utenti. In pratica, sono in grado di ritagliare, ruotare e zoomare le foto, anche quelle sfocate o distorte, per analizzarle a fondo.

Gli utenti di X non hanno perso tempo a scoprire le potenzialità di o3 nel dedurre città, punti di riferimento e persino ristoranti e bar da piccoli indizi visivi. Il web si è riempito di esempi di utenti che danno a ChatGPT menu di ristoranti, scatti di quartieri, facciate di edifici e autoritratti, sfidando o3 a giocare a “GeoGuessr“, un gioco online che chiede di indovinare le località dalle immagini di Google Street View.

Un potenziale problema di privacy

Ma c’è un lato oscuro dietro questo trend. Nulla impedisce a un malintenzionato di fare uno screenshot, ad esempio, della Storia Instagram di qualcuno e usare ChatGPT per cercarlo. Non esattamente uno scenario rassicurante. Il punto è che, anche GPT-4o, un modello più vecchio senza capacità di “ragionamento” sulle immagini, può dedurre la località nella maggior parte dei casi, e in meno tempo.

Tuttavia, o3 non è infallibile. In diversi test, il modello ha mostrato limiti evidenti: in alcuni casi, si è bloccato in un loop di ragionamento, continuando a cercare una risposta senza riuscire a trovarne una di cui fosse abbastanza sicuro. In altri casi, invece, ha fornito risposte completamente sbagliate, indicando luoghi lontani anni luce da quello rappresentato nell’immagine. Anche molti utenti su X hanno condiviso esempi di errori grossolani nelle deduzioni geografiche.

Quali sono i rischi?

Questo trend mette in luce nuovi rischi legati ai modelli AI avanzati, soprattutto quelli capaci di ragionamento visivo. ChatGPT sembra offrire poche barriere di protezione contro l’uso improprio delle sue capacità per identificare luoghi a partire da una semplice immagine. Il problema è che OpenAI non menziona affatto questa potenziale falla nel suo rapporto sulla sicurezza dei modelli o3 e o4-mini, lasciando un vuoto importante nella gestione della privacy.

Dedurre dove è stata scattata una foto può sembrare un gioco divertente e persino affascinante, ma solleva interrogativi seri: cosa succede quando chiunque può identificare dove è stata scattata una foto senza alcun contesto?

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
18 apr 2025
Link copiato negli appunti