Uno sviluppatore dice di aver decodificato SynthID, il sistema di watermark invisibile che Google DeepMind applica a tutti i contenuti generati dall’AI, immagini, video, audio. Google dice che non è vero. La verità, come al solito, è nel mezzo. Il sistema è stato parzialmente analizzato, ma non davvero violato. E il fatto che la persona che ci ha provato ammetta di non essere riuscita a rimuovere il watermark, solo a confondere i sistemi che lo leggono, dice più sull’efficacia di SynthID che sulla capacità dell’hacker.
SynthID di Google resiste al reverse engineering ma non è invulnerabile
Lo sviluppatore, con lo username Aloshdenny, ha documentato il processo su Medium e pubblicato il codice su GitHub. La sua tecnica? Generare 200 immagini completamente nere o bianche con Gemini, amplificare contrasto e saturazione, e poi mediare i pattern per esporre la struttura del watermark nascosto nei pixel.
Aloshdenny è riuscito a identificare le frequenze del segnale watermark e a tentare di rimuoverle parzialmente. Ma non è riuscito a eliminare SynthID completamente, solamente a confondere i decoder che cercano di leggere il watermark nelle immagini. Il decoder non dà più una risposta certa, ma il watermark è ancora lì.
Il fatto che il meglio che sono riuscito a fare sia stato confondere il decoder abbastanza da farlo arrendere, non cancellare il watermark, dice molto su quanto è stato progettato bene
, ammette Aloshdenny. Non è perfetto. Ma non cerca di essere indistruttibile. Cerca di essere abbastanza resistente da scoraggiare la maggior parte delle persone.
La risposta di Google
Non è corretto dire che questo strumento può rimuovere sistematicamente i watermark SynthID
, ha dichiarato la portavoce di Google Myriam Khan. SynthID è uno strumento di watermarking robusto ed efficace per i contenuti generati dall’AI.
I watermark AI sono abbastanza forti?
SynthID è il watermark invisibile più diffuso, viene applicato a tutto ciò che esce dai modelli Google, Gemini, Veo 3, persino i cloni vocali AI dei creator di YouTube. Se fosse stato effettivamente violato, le implicazioni sarebbero enormi, chiunque potrebbe rimuovere il marchio dai contenuti AI o aggiungerlo a contenuti reali per farli sembrare generati.
Per ora, non siamo a quel punto, ma il tentativo di Aloshdenny mostra che il sistema non è un muro impenetrabile, è abbastanza alto da scoraggiare quasi tutti. Quasi.