Deepfake della crisi in Venezuela: il futuro della disinformazione

Deepfake della crisi in Venezuela: il futuro della disinformazione

Dopo l'arresto di Maduro, milioni di video sulla crisi venezuelana hanno invaso i social, ma molti erano deepfake generati dall'AI.
Deepfake della crisi in Venezuela: il futuro della disinformazione
Dopo l'arresto di Maduro, milioni di video sulla crisi venezuelana hanno invaso i social, ma molti erano deepfake generati dall'AI.

Dopo l’arresto di Nicolás Maduro da parte degli Stati Uniti, i social media sono esplosi. Video di folle che celebrano nelle strade di Caracas, arresti in diretta, ministri che rilasciano dichiarazioni davanti agli edifici governativi. TikTok, X, Instagram, un flusso continuo di immagini drammatiche, emozionanti, condivise milioni di volte nel giro di ore.

L’ondata di deepfake AI sul Venezuela anticipa il caos informativo del 2026

Giornalisti sul campo hanno confrontato i video virali con quello che stava accadendo davvero nelle strade venezuelane. E sorpresa, diverse sequenze erano deepfake generati dall’intelligenza artificiale. Video completamente inventati, che sembravano autentici finché non si iniziava a notare dettagli surreali: bandiere deformate, movimenti innaturali delle persone, elementi architettonici che non corrispondevano alla realtà. Un mix tossico di scene vere e false, dove la verità si perde.

Un video pubblicato all’inizio di gennaio mostrava la reazione degli abitanti di Caracas dopo la cattura di Maduro. Folle oceaniche, celebrazioni spontanee, bandiere sventolanti. Condiviso su X, Instagram e TikTok, ha accumulato milioni di visualizzazioni in poche ore.

Alcune di quelle immagini venivano da reporter realmente presenti sul posto. Altre, analizzate da fact-checker come NewsGuard e PolitiFact, erano deepfake o materiale riciclato da eventi passati. Le bandiere avevano proporzioni sbagliate. Le persone si muovevano in modi vagamente innaturali. Dettagli che sfuggono a un primo sguardo, soprattutto se si scorre velocemente il feed del telefono.

E qui sta il vero problema vero. Il pubblico condivide questi video senza alcun contrassegno che indichi che è stato generato dall’AI. Perché a un primo sguardo, soprattutto su uno schermo piccolo, con la qualità compressa dei social, sembrano autentici. Solo che non lo sono.

Il fatto è che gli esseri umani si fidano di quello che vedono. È un istinto evolutivo che ci ha salvato la pelle per millenni. Se si vede un leone, meglio scappare. Se si vede del fumo, vuol dire che c’è fuoco. La vista è il senso che consideriamo più affidabile. Ma l’intelligenza artificiale ha stravolto tutto. Ora si possono vedere cose che non sono mai successe, e il cervello, non essendo stato programmato per dubitare delle immagini in movimento, le accetta come reali.

Le piattaforme social non riescono a filtrare tutti i deepfake. Non è solo una questione di volume, milioni di video caricati ogni giorno, ma di sofisticazione. I deepfake di oggi sono talmente avanzati che servono strumenti specializzati per smascherarli. E anche quando li smascherano, il danno è già fatto: il video falso nel frattempo ha accumulando condivisioni, commenti, inserendosi nella narrazione collettiva di quello che sta succedendo.

Il test venezuelano per il futuro dell’informazione

Per il Reuters Institute, la crisi venezuelana è un assaggio di come sarà l’informazione nel 2026 e oltre. Un ecosistema dove deepfake estremamente credibili si mescolano inestricabilmente agli eventi reali. Se già adesso fatichiamo a distinguere video veri da falsi durante una crisi politica importante, cosa succederà quando la tecnologia migliorerà ulteriormente? Quando i deepfake non avranno più bandiere deformate o movimenti strani? Quando anche gli esperti non sapranno più distinguerli?

Secondo NBC News, questa confusione sta accelerando l’erosione della fiducia nelle notizie online. Del resto, se non ci si può più fidare di quello che si vede, cosa rimane? Testo scritto? Anche quello può essere generato dall’AI. Audio? Idem. Testimonianze? Anche quelle possono essere inventate.

Stiamo scivolando verso un futuro dove la verità oggettiva diventa quasi impossibile da stabilire in tempo reale. Dove ogni evento importante viene immediatamente sommerso da una valanga di contenuti sintetici che lo amplificano, lo distorcono, o lo inventano completamente.

Le piattaforme come megafoni involontari (o no?)

Tutti i social hanno politiche contro la disinformazione, eppure i deepfake venezuelani sono circolati liberamente, accumulando visualizzazioni a sette cifre prima che qualcuno iniziasse a fare fact-checking serio.

Generare un deepfake video richiede pochi minuti con gli strumenti giusti. Verificarlo e contrassegnarlo come falso richiede ore di lavoro umano specializzato. Il rapporto è insostenibile. Per ogni video falso che viene identificato e rimosso, ne spuntano dieci nuovi.

E poi c’è la questione dell’incentivo. I video virali, veri o falsi, generano engagement. E l’engagement genera profitti pubblicitari. Le piattaforme hanno tutte le ragioni economiche del mondo per lasciare che i contenuti circolino il più possibile prima di intervenire. Se mai intervengono.

Il pubblico, dicono gli esperti, dovrà imparare a usare il buon senso. Che è un consiglio adorabile nella sua ingenuità. Come se il problema fosse che la gente non ci prova abbastanza. La realtà è che distinguere deepfake sofisticati richiede competenze tecniche che la maggior parte delle persone non ha e non avrà mai.

E le redazioni giornalistiche? Dovranno potenziare drasticamente i propri metodi di fact-checking. Con quali risorse, esattamente? Il giornalismo tradizionale è in crisi economica da anni. Le redazioni tagliano personale, non lo assumono. E ora dovrebbero anche investire in team specializzati per verificare deepfake in tempo reale durante crisi in sviluppo?

Il 2026 che ci aspetta (e non sarà divertente)

I deepfake sulla crisi venezuelana sono, nelle parole del Reuters Institute, solo un assaggio. La tecnologia migliorerà. Diventerà più accessibile. Più veloce. Più convincente. E non sarà solo per crisi politiche lontane. Sarà per elezioni locali, scandali aziendali, casi giudiziari, emergenze sanitarie. Ogni evento importante verrà immediatamente contaminato da contenuti sintetici progettati per confondere, manipolare, o semplicemente generare clic.

Non è che la verità non esisterà più. Ma trovarla in mezzo al rumore sarà talmente difficile che molti smetteranno di provarci. E questo, forse, è l’obiettivo finale della disinformazione di massa.

Fonte: NBC News
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
12 gen 2026
Link copiato negli appunti