Il Wall Street Journal ha scoperto che nel feed Per te dei minorenni vengono mostrati numerosi video sulla guerra tra Hamas e Israele. Si tratta di contenuti violenti che non dovrebbero essere “suggeriti” dall’algoritmo di TikTok. La Commissione europea ha chiesto all’azienda cinese di rispettare il Digital Services Act, in particolare gli obblighi relativi alla protezione dei minori.
Video allarmistici e violenti
Il Wall Street Journal ha creato otto account automatizzati (bot), impostando l’età a 13 anni, per verificare quali video sulla guerra in Medio Oriente vengono mostrati nel feed Per te. Gli account non seguono altri utenti e non hanno effettuato ricerche sull’argomento. A distanza di alcune ore dalla registrazione, l’algoritmo di TikTok inizia a suggerire contenuti allarmistici e violenti, la maggioranza dei quali pro Palestina.
Alcuni account creati dal WSJ sono finiti “tane del coniglio” (rabbit holes), in cui oltre la metà dei video mostrati erano relativi alla guerra. Su un account, il primo video sul conflitto è apparso dopo 57 video, ma è bastato soffermarsi sul video per ricevere altri video correlati. I contenuti sulla guerra sono stati mostrati anche agli account in modalità limitata.
Anche se descrivono scenari di morte e mostrano bambini terrorizzati, alcuni video non violano le regole sulla promozione dei gruppi terroristici o quelle sui contenuti violenti. TikTok ha dichiarato che il test effettuato dal WSJ non rispecchia la reale esperienza dei minorenni sulla piattaforma, evidenziando che sono stati rimossi quasi 7 milioni di video tra il 7 ottobre e il 30 novembre.
L’azienda cinese ha inoltre sottolineato che le opzioni di controllo parentale permettono di filtrare specifiche keyword e limitare la ricerca per gli account dei minorenni. Dal 7 ottobre ad oggi sono stati bloccati oltre un milione di contenuti violenti.