YouTube, un trucco svela migliaia di video vietati per adulti

YouTube, un trucco svela migliaia di video vietati per adulti

Un utente Reddit ha scoperto come accedere ai contenuti pornografici su YouTube con una semplice stringa di ricerca. La falla è ancora attiva.
YouTube, un trucco svela migliaia di video vietati per adulti
Un utente Reddit ha scoperto come accedere ai contenuti pornografici su YouTube con una semplice stringa di ricerca. La falla è ancora attiva.

C’è una cosa che YouTube non ammetterà mai: la piattaforma video più popolare del pianeta nasconde migliaia di contenuti pornografici accessibili con una banale ricerca.

La scappatoia di YouTube che bypassa i controlli sui contenuti

La scoperta arriva da Reddit. Basta digitare una specifica stringa di caratteri nella barra di ricerca e YouTube spalanca le porte su un archivio di materiale esplicito che tecnicamente non dovrebbe nemmeno esistere sulla piattaforma.

Nessuno sa da quanto tempo questa falla sia lì, disponibile a chiunque abbia la curiosità o le informazioni giuste per sfruttarla. E Google nel frattempo tace o prende tempo.

Il problema principale, è che YouTube è utilizzato da milioni di bambini. I video più visti della piattaforma sono letteralmente destinati ai più piccoli: cartoni animati, canzoncine ipnotiche, recensioni di giocattoli fatte da altri bambini. È il territorio dove le menti giovani vanno a consumare ore di contenuti mentre i genitori si illudono che “almeno non stanno guardando la TV“.

La sicurezza dei minori dovrebbe essere una priorità assoluta per Google. Dovrebbe. Nella realtà, i bambini su YouTube oscillano tra due pericoli opposti ma ugualmente sgradevoli: da una parte l’invasione di video generati dall’intelligenza artificiale, dall’altra, la possibilità concreta di imbattersi in contenuti pornografici.

La ricerca magica che apre il vaso di Pandora

Secondo l’utente di Reddit, basterebbe digitare una sequenza specifica di caratteri, che qui ovviamente non riporteremo, per imbattersi in una valanga di contenuti espliciti. Non parliamo di qualche video sparso qua e là. Parliamo di migliaia di risultati, tutti caricati su una piattaforma che nella sua policy ufficiale vieta categoricamente il porno.

Il bello è che non serve nemmeno essere particolarmente tecnici o creativi. Persino una versione abbreviata della stringa funziona, anche se produce meno risultati. Certo, è statisticamente improbabile che un bambino casuale si metta a digitare esattamente quella sequenza di caratteri. Ma questo solleva una domanda ancora più inquietante: quante altre combinazioni di ricerca esistono? Quanti altri metodi ci sono per aggirare i filtri? E se questi contenuti sono lì, facilmente accessibili a chi sa dove guardare, cosa significa per tutti quelli che li trovano per caso?

Abbiamo testato questa tecnica, per puro spirito giornalistico, ovviamente, e possiamo confermare che al momento della scrittura funziona ancora. La maggior parte dei video usa un trucco elementare: mostrano immagini esplicite per un solo secondo, giusto il tempo di aggirare i sistemi di rilevamento automatico di YouTube che evidentemente controllano i fotogrammi ma non abbastanza attentamente.

Ma il problema non sono solo i video. Sono i canali stessi. Le foto profilo di questi account sono apertamente pornografiche, senza mezze misure, senza ambiguità. Già solo con quello violano il regolamento di YouTube, e non c’è bisogno di analisi sofisticate o AI avanzata per individuarli. Basterebbe un essere umano con gli occhi aperti che passa cinque minuti a controllare.

Eppure questi canali esistono. Caricano video. Accumulano visualizzazioni. Continuano a operare indisturbati mentre Google pubblica post su blog aziendali parlando di quanto siano sofisticati i loro sistemi di moderazione e quanto tengano alla sicurezza degli utenti.

Il silenzio di Google

Google non ha ancora reagito. È la strategia dello struzzo: se non ne parliamo, forse sparirà da solo. Spoiler: non sparirà da solo. Questi contenuti sono lì perché qualcuno li ha caricati. Sono rimasti lì perché i sistemi di moderazione non li hanno bloccati. Sono ancora lì perché nessuno sta facendo niente per rimuoverli. E continueranno a essere lì finché Google non deciderà che forse vale la pena investire risorse vere nella moderazione invece di affidarsi completamente ad algoritmi che evidentemente possono essere ingannati da chiunque abbia un minimo di creatività.

Il paradosso è che YouTube ha uno degli eserciti di moderazione più grandi del mondo, eppure basta una stringa di ricerca per trovare contenuti che violano le regole più basilari della piattaforma. Non è un problema tecnico. È un problema di priorità. E le priorità di Google, evidentemente, sono altrove.

Fonte: Reddit
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
4 gen 2026
Link copiato negli appunti