Google ha esteso la funzione di verifica AI di Gemini ai video. Gli utenti possono controllare se un video è stato generato o modificato con l’intelligenza artificiale dell’azienda. Basta caricare il video e chiedere: È stato generato utilizzando l’intelligenza artificiale di Google?
. Gemini analizza immagini e audio a caccia del SynthID, il watermark proprietario che Google nasconde nei suoi contenuti generati dall’AI. La risposta non è un semplice sì o no, ma identifica i momenti specifici in cui il watermark appare nel video o nell’audio.
Gemini rileva video generati con l’intelligenza artificiale, ma solo di Google, non rileva altre AI
Il problema è che funziona solo con l’AI di Google. Se il video è stato creato con Runway, Pika, Sora di OpenAI, o qualsiasi altro strumento di generazione video, Gemini non può dire nulla. È come avere un metal detector che suona solo se il metallo è stato fabbricato da una specifica azienda.
Google definisce SynthID come un watermark impercettibile, poiché è invisibile all’occhio umano, ma non passa inosservato agli algoritmi. E se venisse rimosso? È già capitato che altre filigrane venissero facilmente rimosse, come ha scoperto OpenAI quando ha lanciato Sora, la sua app di generazione video. Se SynthID è più resistente, potrebbe fare la differenza. Se invece può essere eliminato con gli stessi metodi, diventa solo un’altra filigrana che gli utenti determinati sapranno aggirare.
Il modello di generazione di immagini Imagen di Google incorpora metadati C2PA, uno standard aperto per la provenienza dei contenuti digitali, ma la generale mancanza di un sistema coordinato di tagging del materiale generato dall’AI sulle piattaforme social permette ai deepfake di circolare indisturbati.
Facebook, Instagram, TikTok, X, nessuna di queste piattaforme ha implementato un sistema universale per rilevare e etichettare contenuti AI. Perciò i deepfake passano inosservati, mentre Google può dire con precisione se un video è stato fatto con la sua AI, ma non può fare nulla per i video generati con altre piattaforme.
Limiti tecnici: 100 MB e 90 secondi
Gemini è in grado di gestire video fino a 100 MB e 90 secondi per la verifica. Sono limiti ragionevoli per clip brevi, tipo quelle che circolano su social media, ma escludono video più lunghi o file di qualità superiore che superano facilmente i 100 MB. Chi vuole verificare un video di cinque minuti, o un file 4K di 500 MB, è fuori gioco.
La funzione è disponibile in tutte le lingue e in tutti i Paesi in cui è disponibile l’app Gemini. Big G ha fatto un passo avanti portando la verifica AI ai video, ma è un passo piccolo per un problema enorme. Fino a quando non ci sarà uno standard aperto che tutte le piattaforme adottano, il rilevamento AI resterà un mosaico di soluzioni parziali che proteggono solo frammenti dell’ecosistema digitale.