Mentre le bombe cadono sull’Iran e il Medio Oriente brucia, un video falso generato dall’AI che mostra presunti danni a edifici in Israele gira su Facebook, Instagram e Threads. Nessuna etichetta però, lo segnala come generato dall’intelligenza artificiale. Si diffonde, viene condiviso, alimenta la disinformazione.
Il Meta Oversight Board, l’organo semi-indipendente che supervisiona la moderazione dei contenuti dell’azienda, ha visto abbastanza. La sentenza è che i metodi di Meta per identificare i deepfake non sono sufficientemente robusti o completi per la velocità con cui la disinformazione si propaga durante i conflitti armati.
La moderazione dei deepfake di Meta è inadeguata, lo dice il suo comitato di vigilanza
Il sistema attuale di Meta per etichettare i contenuti AI dipende in gran parte dalla buona volontà di chi carica il contenuto di segnalare che è stato generato dall’intelligenza artificiale. In alternativa, servono segnalazioni e revisioni manuali. Ma oramai i deepfake vengono prodotti in pochi minuti e possono raggiungere milioni di persone altrettanto velocemente, come quello di Giorgia Meloni, e spesso quando un moderatore se ne accorge è troppo tardi.
Come ha dichiarato il comitato di vigilanza: Il sistema attuale di Meta per etichettare correttamente i contenuti AI non risponde alle realtà dell’ambiente online odierno.
Il caso che ha scatenato l’indagine riguarda un video fake apparso originariamente su TikTok e poi migrato su Facebook, Instagram e X.
Le raccomandazioni del Meta Oversight Board
Il Board chiede a Meta di agire su più fronti. Migliorare le regole esistenti sulla disinformazione per affrontare specificamente i deepfake ingannevoli. Creare uno standard comunitario separato per i contenuti generati dall’AI. Sviluppare strumenti di rilevamento AI migliori. Essere trasparente sulle sanzioni per chi viola le policy sull’AI. E soprattutto, rendere le etichette “AI ad alto rischio” più frequenti su immagini e video sintetici.
Un punto particolarmente critico riguarda lo standard C2PA (Content Credentials), il sistema di certificazione che dovrebbe identificare automaticamente i contenuti generati dall’AI. Il Board si dice preoccupato perché, secondo diverse segnalazioni, Meta applica lo standard C2PA in modo incoerente anche ai contenuti prodotti dai suoi strumenti di AI. Solo una parte degli output AI, infatti, sarebbe etichettata correttamente.
Meta non è obbligata a obbedire
Il Meta Oversight Board può consigliare, ma non imporre. Meta non è vincolata a implementare queste indicazioni. Ma le raccomandazioni si allineano con le preoccupazioni espresse lo scorso anno dal responsabile di Instagram Adam Mosseri sulla necessità di migliorare l’identificazione di foto e video autentici sulle piattaforme Meta.
Con i deepfake che si diffondono senza controllo, sperare nell’onestà di chi carica il contenuto, senza applicare gli stessi standard alla propria AI, è una strategia di moderazione che semplicemente non regge.