I ricercatori di ByteDance, proprietaria di TikTok, hanno presentato un nuovo sistema di intelligenza artificiale chiamato OmniHuman-1. È capace di generare quelli che sono forse i video deepfake più realistici mai visti finora.
OmniHuman-1 di ByteDance, i video deepfake raggiungono un realismo sconvolgente
Ormai non mancano le app che possono inserire qualcuno in una foto o fargli dire cose mai dette. Ma la maggior parte dei deepfake, soprattutto quelli video, non convince fino in fondo. C’è sempre qualche indizio o segno evidente del coinvolgimento dell’AI. Non è così per OmniHuman-1, almeno a giudicare dai campioni selezionati dal team di ByteDance. Basta guardare la lezione mai avvenuta di Einstein… da pelle d’oca.
Secondo i ricercatori, a OmniHuman-1 basta una singola immagine di riferimento e dell’audio, come voce o canto, per generare una clip della durata desiderata. Si possono regolare il rapporto d’aspetto del video e le proporzioni del corpo del soggetto, cioè quanta parte del corpo viene mostrata nel filmato falso.
Addestrato su 19.000 ore di video da fonti non divulgate, OmniHuman-1 può anche modificare video esistenti, persino i movimenti degli arti di una persona. Il risultato è davvero sbalorditivo per la sua credibilità.
Qualche difetto, ma un enorme passo avanti rispetto al passato
Certo, OmniHuman-1 non è perfetto. Il team ammette che immagini di riferimento di bassa qualità non daranno i migliori risultati. E il sistema sembra faticare con certe pose, come si nota dai movimenti strani delle mani sulla tastiera del pianoforte in un video.
Tuttavia, OmniHuman-1 è nettamente superiore alle tecniche deepfake precedenti e potrebbe essere un segnale del futuro prossimo. Anche se ByteDance non ha rilasciato il sistema, la comunità dell’AI di solito non ci mette molto a fare il reverse engineering di modelli come questi.
Le implicazioni preoccupanti per la politica, la finanza e la società
Lo scorso anno, i deepfake politici si sono diffusi a macchia d’olio in tutto il mondo. A Taiwan, un gruppo affiliato al Partito Comunista Cinese ha postato audio falsi e fuorvianti di un politico a sostegno di un candidato filocinese. In Moldavia, video deepfake hanno mostrato la presidente Maia Sandu dimettersi. E in Sudafrica, un deepfake del rapper Eminem che appoggiava un partito di opposizione ha circolato prima delle elezioni.
I deepfake vengono usati sempre più spesso anche per crimini finanziari. I consumatori vengono ingannati da celebrità fasulle che offrono investimenti fraudolenti, mentre le aziende subiscono truffe milionarie da parte di impostori. Secondo Deloitte, nel 2023 i contenuti generati dall’AI hanno causato oltre 12 miliardi di dollari di perdite per frode, cifra che potrebbe raggiungere i 40 miliardi negli USA entro il 2027.