X blocca la ricerca dei deepfake di Taylor Swift

X blocca la ricerca dei deepfake di Taylor Swift

In seguito alla pubblicazione dei deepfake di Taylor Swift, X ha bloccato la ricerca dei contenuti, ma la misura (temporanea) non è molto efficace.
X blocca la ricerca dei deepfake di Taylor Swift
In seguito alla pubblicazione dei deepfake di Taylor Swift, X ha bloccato la ricerca dei contenuti, ma la misura (temporanea) non è molto efficace.

X ha bloccato le ricerche di contenuti associati a Taylor Swift e quindi anche dei deepfake “espliciti” creati con l’intelligenza artificiale. L’azienda californiana ha comunicato che l’azione è temporanea. Sulla questione è intervenuto anche Satya Nadella, CEO di Microsoft. La Casa Bianca ha invece evidenziato la necessità di una legge per proteggere le persone.

La soluzione di X è poco efficace

Le immagini fake a luci rosse della cantante sono iniziate a circolare su X nei giorni scorsi. Una di esse è rimasta online per 17 ore, raggiungendo 45 milioni di visualizzazioni, prima di essere rimossa. Sembra che l’origine dei deepfake sia un gruppo Telegram. I contenuti sarebbe stati creati con Microsoft Designer che sfrutta il modello DALL-E 3 di OpenAI.

X ha pubblicato un post per ricordare che le immagini di nudità non consensuale sono vietate sulla piattaforma. Molte foto fake sono state rimosse e gli account che le hanno condivise sono stati sospesi, anche grazie alle segnalazioni dei fan di Taylor Swift.

Ieri l’azienda californiana ha deciso di attuare una misura drastica. Cercando “Taylor Swift” o “Taylor Swift IA” viene mostrato il messaggio di errore “Qualcosa è andato storto. Prova ad aggiornare“. La soluzione non è tuttavia molto efficace. Cambiando i termini di ricerca si possono vedere alcune immagini generate dall’intelligenza artificiale.

Joe Benarroch, responsabile delle operazioni commerciali di X, ha dichiarato:

Si tratta di un’azione temporanea e viene eseguita con molta cautela poiché diamo priorità alla sicurezza su questo problema.

Durante un’intervista rilasciata a NBC News, Satya Nadella (CEO di Microsoft) ha usato le parole “allarmante e terribile” per indicare la proliferazione di immagini di nudità non consensuale create con l’IA, sottolineando la necessità di interventi tecnici e legislativi.

Rispondendo alla domanda di una giornalista, Karine Jean-Pierre (portavoce della Casa Bianca) ha spronato il Congresso ad introdurre una legge per proteggere le persone dai deepfake. Il problema non è solo limitato a immagini e video.

Usando il tool sviluppato da ElevenLabs è stata generata la voce di Joe Biden per una robocall. Il messaggio fasullo invitava i cittadini a non votare per le primarie in New Hampshire. L’IA può quindi essere utilizzata per manipolare l’opinione pubblica e alterare il processo elettorale.

Fonte: The Verge
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
28 gen 2024
Link copiato negli appunti