Riconoscere i deepfake: la sfida tra l’uomo e la macchina

Riconoscere i deepfake: la sfida tra l’uomo e la macchina

Il rapido miglioramento della tecnologia, compresi gli strumenti AI, rende l’individuazione di un deepfake più difficile che mai.
Riconoscere i deepfake: la sfida tra l’uomo e la macchina
Il rapido miglioramento della tecnologia, compresi gli strumenti AI, rende l’individuazione di un deepfake più difficile che mai.

I deepfake sono video o immagini manipolati con l’intelligenza artificiale per alterare le parole, le espressioni o le azioni di una persona reale. Questi contenuti falsi possono minacciare ogni aspetto della società, dalla politica alla sicurezza, dalla privacy alla reputazione. La capacità di identificare i contenuti falsi è fondamentale per contrastare la disinformazione e proteggere la verità, ma con il progresso della tecnologia, di chi ci può fidare, dell’uomo o macchina?

La risposta non è semplice. Da un lato, gli esseri umani hanno delle abilità cognitive e sociali che possono aiutarli a notare delle incongruenze o delle anomalie nei video o nelle immagini. Tuttavia, sono anche soggetti a dei pregiudizi, delle emozioni o delle aspettative che possono influenzare il loro giudizio. D’altro canto le macchine sono in grado di analizzare i video o le immagini con maggiore precisione e velocità, ma hanno anche dei limiti. Ad esempio, possono essere ingannate da dei deepfake molto realistici o da dei falsi positivi. Inoltre, le macchine devono essere costantemente aggiornate e adattate ai nuovi metodi di creazione dei deepfake.

Deepfake, quali sono i rischi

I deepfake possono avere conseguenze gravi, poiché possono causare diversi problemi, quali:

  • Disinformazione: possono diffondere notizie false o manipolate, influenzando l’opinione pubblica o il voto elettorale.
  • Impersonificazione: possono danneggiare la reputazione o la credibilità di persone famose o comuni, mostrandole in situazioni compromettenti o illegali.
  • Sicurezza nazionale: possono creare scenari apocalittici, come video o audio falsi di un leader mondiale che dichiara guerra o minaccia un altro paese.
  • Disordini civili: possono anche essere usati per incitare la violenza o il conflitto tra gruppi sociali, etnici o religiosi, sfruttando le loro paure o i loro pregiudizi.
  • Sicurezza informatica: possono essere usati per truffe o estorsioni online, usando la voce o l’immagine di una persona conosciuta per convincere la vittima a pagare o a fornire informazioni sensibili.
  • Privacy e consenso: possono violare il diritto alla privacy e al consenso delle persone, usando le loro immagini o le loro voci senza il loro permesso, spesso per scopi sessuali o umilianti.
  • Fiducia e sicurezza: possono erodere la fiducia e la sicurezza nelle fonti di informazione, rendendo difficile distinguere tra realtà e finzione, tra verità e menzogna.

I deepfake diventeranno sempre più realistici e convincenti, quindi sono necessari di strumenti e processi efficaci per riconoscerli. L’intelligenza artificiale può essere un’alleata preziosa, ma come gli algoritmi progettati per identificare i testi generati dall’AI, gli strumenti di rilevamento dei deepfake non sono infallibili.

Gli algoritmi possono rilevare i deepfake meglio degli esseri umani?

I deepfake sono una minaccia abbastanza seria, a cui i giganti della tecnologia e i gruppi di ricerca stanno dedicando grandi risorseo. Nel 2019, aziende del calibro di Meta, Microsoft e Amazon hanno messo in palio 1.000.000 di dollari durante una Deepfake Detection Challenge per il modello di rilevamento più accurato.

Il modello che ha ottenuto i migliori risultati ha raggiunto un’accuratezza dell’82,56% su un insieme di video pubblici. Tuttavia, quando gli stessi modelli sono stati applicati a una collezione di 10.000 video sconosciuti, il modello più efficace ha mostrato solo il 65,18% di precisione.

Esistono anche numerosi studi che analizzano le prestazioni degli strumenti di AI per il rilevamento dei deepfake rispetto agli esseri umani. Naturalmente i risultati variano da uno studio all’altro, ma in genere gli esseri umani eguagliano o superano il tasso di successo di questi strumenti.

Uno studio del 2021 pubblicato su PNAS ha rilevato che gli “osservatori umani ordinari” hanno raggiunto un tasso di precisione leggermente superiore a quello dei principali strumenti di rilevamento dei deepfake. Tuttavia, lo studio ha anche rilevato che i partecipanti umani e i modelli di intelligenza artificiale erano soggetti a diversi tipi di errori.

È interessante notare che una ricerca condotta dall’Università di Sydney ha scoperto che il cervello umano è, inconsciamente, più efficace nell’individuare i deepfake rispetto ai nostri sforzi coscienti.

Come si riconosce un deepfake?

Come si fa a capire se un video è un deepfake? Non è facile, perché questi contenuti sono sempre più sofisticati e realistici. Tuttavia, ci sono alcuni indizi che possono aiutarci a smascherare i video manipolati. Il MIT ha individuato 8 fattori da osservare attentamente:

  • Il volto: i deepfake si concentrano soprattutto sulle trasformazioni del viso, quindi bisogna controllare se ci sono delle anomalie o delle incongruenze nel volto della persona.
  • Le guance e la fronte: la pelle del viso ha un aspetto naturale o sembra troppo liscia o troppo rugosa? L’invecchiamento della pelle corrisponde a quello dei capelli e degli occhi? I deepfake potrebbero sbagliare su questi dettagli.
  • Gli occhi e le sopracciglia: le ombre e le luci sul viso sono coerenti con la fonte di luce della scena? I deepfake potrebbero non rispettare la fisica naturale dell’illuminazione.
  • Gli occhiali: se la persona porta gli occhiali, ci sono dei riflessi sulle lenti? I riflessi cambiano angolo quando la persona muove la testa? I deepfake potrebbero non gestire bene gli effetti dei riflessi.
  • La peluria del viso: se la persona ha dei peli sul viso, come baffi, basette o barba, sembrano veri o aggiunti artificialmente? I deepfake potrebbero aggiungere o togliere dei peli sul viso, ma potrebbero non farlo in modo naturale.
  • I nei del viso: se la persona ha dei nei sul viso, sembrano veri o falsi? I deepfake potrebbero creare o eliminare dei nei sul viso, ma potrebbero non farlo in modo convincente.
  • L’ammiccamento: la persona batte le palpebre in modo normale o troppo poco o troppo spesso? I deepfake potrebbero avere difficoltà a simulare il movimento naturale delle palpebre.
  • I movimenti delle labbra: la persona parla in modo sincronizzato con il suono o ci sono dei ritardi o delle discrepanze? I deepfake potrebbero basarsi sulla sincronizzazione delle labbra, ma potrebbero non farlo in modo perfetto.

Oltre a questi fattori, ci sono anche altri metodi per rilevare i deepfake, basati sull’intelligenza artificiale. Questi metodi analizzano gli stessi fattori, ma con maggiore precisione e velocità. Inoltre, ci sono anche dei sistemi ancora più avanzati, come il rilevamento del flusso sanguigno nel viso, che possono essere più efficaci dei metodi umani. Questi metodi sono in continua evoluzione e miglioramento, e potrebbero diventare in futuro gli strumenti più affidabili per scoprire i deepfake.

L’importanza del pensiero critico

Gli strumenti di rilevamento dei deepfake basati sull’AI continueranno a migliorare, così come la qualità dei contenuti dei deepfake stessi. Se un giorno l’intelligenza artificiale sarà in grado di creare deepfake più convincenti di quanto possa rilevarli, la discrezione umana potrebbe essere l’unico strumento che resta per combattere i deepfake.

Per questo motivo, tutti hanno la responsabilità di imparare i segnali dei deepfake e come individuarli. Ci sono alcuni indizi che possono aiutarci a riconoscere i deepfake, come le anomalie nel movimento delle labbra, degli occhi o del viso, le incongruenze tra il suono e l’immagine, o le sfocature e le distorsioni nel bordo dei soggetti.

Oltre a questi aspetti tecnici, è fondamentale anche usare il senso critico e verificare la fonte, il contesto e la credibilità dei contenuti che si guardano e si condividono online. Solo così ci si può proteggere dalle truffe e dalle minacce alla sicurezza, e preservare la capacità di distinguere la realtà dalla finzione.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
10 nov 2023
Link copiato negli appunti