Creare un’immagine da zero non è più un lavoro esclusivo per esperti di Photoshop. Oggi esistono diversi tool (gratuiti e non) per generare immagini quasi fotorealistiche con i modelli text-to-image. Dato che è sempre più difficile distinguere il reale al falso, Meta ha annunciato che aggiungerà una specifica etichetta alle immagini create con tool di terze parti, come già avviene per quelle ottenute con il suo Imagine.
Etichette su Facebook, Instagram e Threads
Meta spiega che molte persone vogliono una maggiore trasparenza, in quanto i contenuti sintetici sono sempre più simili a quelli reali. L’obiettivo è collaborare con altre aziende per sviluppare uno standard che permetta di segnalare i contenuti generati dall’intelligenza artificiale. Nel frattempo, a partire dai prossimi mesi, verrà aggiunta l’etichetta “Imagined with AI” alle immagini IA pubblicate su Facebook, Instagram e Threads.
L’etichetta verrà aggiunta anche alle immagini generare dai tool di OpenAI, Microsoft, Google, Adobe, Midjourney e Shutterstock. L’identificazione è possibile grazie alla presenza di watermark invisibili basati sugli standard C2PA e IPTC. Il rollout sarà graduale e in tutte le lingue supportate.
Simili standard non esistono per video e audio, quindi verrà introdotta una funzionalità che permetterà agli utenti di indicare video e audio generati dall’IA. Gli utenti che non useranno il tool potrebbero essere penalizzati (sospensione, ban e rimozione del post). Se il contenuto rappresenta un rischio elevato, Meta aggiungerà un’etichetta più evidente.
Dato che non è possibile identificare tutti i contenuti IA (ci sono anche tool per la rimozione dei watermark), l’azienda di Menlo Park ha avviato lo sviluppo di una tecnologia, denominata Stable Signature, che integra il watermark nel processo di generazione dell’immagine e quindi non può essere rimosso.