Elon Musk ha annunciato una nuova funzione per X che etichetta le immagini modificate, o almeno, così sembra. L’annuncio è un post criptico di tre parole messe in croce, e l’unica fonte è un account anonimo chiamato DogeDesigner, che funge da portavoce non ufficiale di Musk. Zero spiegazioni su come funzionerà, cosa etichetterà, se includerà solo contenuti generati con l’AI o anche foto editate con Photoshop.
X etichetterà le foto modificate, l’annuncio vago di Musk
DogeDesigner sostiene che renderà più difficile per i media tradizionali diffondere filmati o immagini fuorvianti e che sia una novità assoluta per la piattaforma. Peccato che non sia vero, Twitter già etichettava i media manipolati prima che Musk comprasse la piattaforma e la ribattezzasse X. Nel 2020, Twitter aveva una politica chiara, che includeva editing selettivo, ritaglio, rallentamento, ridoppiaggio o manipolazione dei sottotitoli.
È l’ennesimo annuncio vago di Musk che lascia con più domande che risposte. Ma poi, chi è DogeDesigner? Un account anonimo che posta annunci di funzioni X, che Musk poi ricondivide per dare risonanza. Perché Musk usa un account anonimo invece di comunicare direttamente o tramite canali ufficiali di X? Non è dato saperlo. Forse perché così può negare, cambiare idea, o dire che la vita è tutta un quiz.
Anche perché il post è infarcito di retorica anti-media tipica di Musk, che accusa costantemente i giornalisti di diffondere fake news mentre X è piena di disinformazione perché la moderazione è pressoché inesistente.
La verità è che i media tradizionali sono tenuti a seguire degli standard editoriali, a verificare le fonti prima della pubblicazione, e a correggere pubblicamente gli errori. X no. Le immagini manipolate su X vengono da account casuali, bot, propagandisti, non dal New York Times o dalla BBC. Ma Musk preferisce attaccare i media tradizionali invece di ammettere che X ha un problema di moderazione.
Cosa verrà etichettato? Nessuno lo sa
Musk non ha specificato cosa conterà come “media manipolato“. Solo immagini e video generati dall’AI? Valgono anche le foto modificate con Photoshop? I ritagli? I filtri? Le correzioni del colore?
Meta ha affrontato questo problema qualche anno fa. Ha iniziato a etichettare foto con “Prodotto con AI”, ma il sistema sbagliava costantemente. Anche solo rimuovere una piega da una camicia con riempimento generativo faceva scattare l’etichetta. Meta ha dovuto cambiarla in “Info AI” per non essere troppo categorica.
X dovrà affrontare le stesse difficoltà. E senza team dedicato, come farà a gestire i falsi positivi, le contestazioni, i casi limite?
C2PA: lo standard che X ignora
In realtà, esiste un organismo internazionale che definisce gli standard per verificare l’autenticità dei contenuti digitali: Coalition for Content Provenance and Authenticity (C2PA). Include anche Content Authenticity Initiative (CAI) e Project Origin. L’idea è aggiungere metadati di provenienza come prova di manomissione a immagini, video, audio. Così si può tracciare se sono stati generati dall’AI, modificati, e in che modo.
Microsoft, BBC, Adobe, Intel, Sony, OpenAI fanno parte del comitato direttivo C2PA. Anche TikTok, Spotify, Deezer, Google Photos usano questi standard. X, invece, no. Musk non ha menzionato C2PA nell’annuncio. Probabilmente implementerà qualcosa di proprietario, meno rigoroso, più soggetto a errori.
Le Community Notes non bastano
X ha le Community Notes, il sistema di fact-checking, dove gli utenti in autonomia segnalano i post fuorvianti. Ogni tanto funziona, ma il più delle volte fallisce.
Le Note richiedono il consenso tra persone con punti di vista diversi Inoltre, appaiono ore o giorni dopo che il post è già circolato abbondantemente e il danno è fatto. Le etichette automatiche su immagini manipolate sarebbero più efficaci, se applicate immediatamente al momento del post. Ma richiedono sistemi automatizzati robusti e team umano per gestire i casi limite. X ha licenziato la maggior parte del team di moderazione. Come farà a gestire le etichette su milioni di post quotidiani?
Deepfake di nudo: X non ha fatto nulla
La politica attuale di X contro “media non autentici” esiste sulla carta. Nella pratica, viene applicata raramente. L’esempio più recente sono i deepfake di nudo non consensuali generati da Grok. Milioni di immagini sessualizzate di donne e bambini generate senza consenso. X non ha fatto praticamente nulla. Musk ha difeso Grok parlando di “libertà di espressione”. Solo dopo la pressione mediatica e le indagini UE, X ha fatto qualche timido aggiustamento.
Ma se X non applica le politiche esistenti contro i deepfake estremi, perché dovremmo credere che applicherà le etichette sulle immagini manipolate generiche?