Instagram si trova al centro di una controversia riguardante la promozione di annunci che invitano gli utenti a creare immagini di nudo non consensuali utilizzando app di generazione di immagini basate sull’intelligenza artificiale. Questo episodio mette in luce come alcune delle applicazioni più dannose degli strumenti IA non siano relegate agli angoli bui di Internet, ma vengano attivamente promosse da aziende di social media incapaci o non disposte a far rispettare le proprie policy sulla pubblicità.
Le app AI di spogliarello e il caso di Kim Kardashian
L’Ad Library di Meta contiene un archivio degli annunci pubblicati sulle piattaforme di Meta, insieme a informazioni su chi ha pagato per pubblicarli e dove e quando sono stati mostrati. Nonostante in passato Meta abbia rimosso molti annunci problematici, fino a quando non è stata contattata per un commento c’erano ancora attivi sia annunci che invitavano esplicitamente gli utenti a generare immagini di nudo, sia gli inserzionisti che li avevano commissionati.
Uno degli annunci più eclatanti riguarda una fotografia di Kim Kardashian accompagnata dal testo “Spoglia gratis qualsiasi ragazza. Prova“. Cliccando su questo annuncio, gli utenti venivano indirizzati a una delle più grandi applicazioni di spogliarello basate sul web, dove potevano caricare una fotografia di una persona reale e pagare affinché l’applicazione generasse un’immagine che facesse apparire nuda la persona in quella fotografia. Diverse versioni di questo annuncio, alcune con altre donne, sono state diffuse su Instagram e Facebook tra il 13 e il 19 marzo.
Recentemente sono state diffuse su Facebook, Instagram e Messenger, nonché sulla rete pubblicitaria di Meta, delle inserzioni contenenti immagini generate dall’intelligenza artificiale potenzialmente problematiche. In particolare, tra il 10 e il 20 aprile sono state diffuse pubblicità che mostravano l’immagine di una ragazza, vestita sul lato sinistro e nuda su quello destro. Il testo promuoveva un’applicazione in grado di rimuovere i vestiti da qualsiasi immagine.
Scappatoie negli app store e risposte inadeguate
Le persone che cliccano su questi annunci vengono spesso indirizzate agli app store, dove le stesse applicazioni vengono indicate come “generatori di arte“, senza alcun riferimento al fatto che possono generare nudi. Si tratta di una scappatoia ben consolidata negli store di applicazioni mobili, di cui si è parlato per la prima volta nel 2022.
Queste applicazioni non fanno alcun riferimento a contenuti per adulti sulle pagine dei loro app store o sui loro siti perché è contro le politiche degli app store, ma promuovono attivamente la loro capacità di creare deepfake non consensuali su altri siti.
Nonostante Meta sia stata interpellata al riguardo, ha fornito una risposta generica, affermando che non consente annunci che contengono contenuti per adulti e che lavora rapidamente per rimuoverli quando li identifica. Tuttavia, la continua presenza di questi annunci solleva dubbi sull’efficacia delle misure adottate dalla piattaforma di Mark Zuckerberg per far rispettare le proprie politiche.
L’impatto sulla società e la necessità di una maggiore responsabilità
L’uso di queste app di “spogliarello” si è diffuso nelle scuole di tutto il Paese, portando persino all’arresto di due studenti di scuola media in Florida. Questo evidenzia l’impatto negativo che la promozione di queste applicazioni può avere sulla società, specialmente sui giovani.
Inoltre, la qualità complessiva degli annunci su Instagram è stata eccezionalmente scadente negli ultimi mesi, con la presenza di annunci di droga, carte di credito rubate, account violati, denaro falso, armi e truffe di investimento evidenti da parte di account che si spacciavano per persone ricche e famose. Molti di questi annunci sono ancora online, anche dopo essere stati segnalati a Instagram.