YouTube: l'algoritmo consiglia video inguardabili

YouTube: l'algoritmo consiglia video inguardabili

Uno studio effettuato da Mozilla con l'aiuto di oltre 37.000 volontari svela che l'algoritmo dei suggerimenti su YouTube non funziona correttamente.
YouTube: l'algoritmo consiglia video inguardabili
Uno studio effettuato da Mozilla con l'aiuto di oltre 37.000 volontari svela che l'algoritmo dei suggerimenti su YouTube non funziona correttamente.

L’intelligenza artificiale viene utilizzata con ottimi risultati in diversi settori. Mozilla ha scoperto che quella presente su YouTube funziona malissimo. L’algoritmo usato da Google suggerisce agli utenti numerosi video che non vorrebbero mai vedere e che non dovrebbero nemmeno essere presenti sulla piattaforma perché violano chiaramente le regole del servizio. I dati pubblicati all’inizio di aprile sembrano molto lontani dalla realtà.

YouTube ha un problema di intelligenza

YouTube ha ricevuto diverse critiche in quanto l’intelligenza artificiale suggerisce video con fake news, contenuti estremisti e disinformazione in generale. Mozilla ha quindi deciso di sviluppare l’estensione RegretsReporter che permette di valutare i “danni” causati dall’algoritmo. Dopo una ricerca durata 10 mesi (da luglio 2020 a maggio 2021), Mozilla ha pubblicato il report con risultati sconvolgenti.

Oltre 37.000 utenti volontari hanno usato l’estensione per segnalare 3.362 video “deplorevoli” da 91 paesi. Il 71% dei video erano stati suggeriti dall’algoritmo di YouTube, molti dei quali non rispettavano le linee guida del servizio. Il problema è maggiormente evidente nei paesi in cui l’inglese non è la lingua principale. Quasi 200 video, che avevano 160 milioni di visualizzazioni in totale, sono stati rimossi.

Nel report sono citati diversi video con violenza e contenuti pericolosi, spam, a sfondo sessuale e fake news di ogni tipo, molte delle quali relative alla pandemia COVID-19. Brandi Geurkink, Senior Manager of Advocacy di Mozilla, ha dichiarato:

YouTube deve ammettere che il suo algoritmo è progettato in modo da danneggiare e disinformare le persone. La nostra ricerca conferma che YouTube non solo ospita, ma consiglia attivamente video che violano le sue stesse norme. Ora sappiamo anche che le persone in paesi non di lingua inglese hanno maggiori probabilità di subire il peso dell’algoritmo dei suggerimenti di YouTube. Mozilla spera che questi risultati, che sono solo la punta dell’iceberg, convincano il pubblico e i legislatori dell’urgente necessità di una maggiore trasparenza nell’intelligenza artificiale di YouTube.

Nel report di Mozilla ci sono anche alcuni consigli per YouTube, tra cui l’analisi dell’algoritmo da parte di ricercatori indipendenti, la divulgazione dei dettagli sul funzionamento e l’aggiunta di un’opzione per disattivare i suggerimenti personalizzati. In base ai dati pubblicati da YouTube, solo 16-18 visualizzazioni su 10.000 riguardano video proibiti dalle linee guida.

Un portavoce di YouTube ha dichiarato:

Oltre 80 miliardi di informazioni vengono utilizzate per migliorare i nostri sistemi, comprese le risposte ai sondaggi degli utenti su ciò che vogliono guardare. Lavoriamo costantemente per migliorare l’esperienza su YouTube e solo nell’ultimo anno abbiamo introdotto oltre 30 diverse modifiche per ridurre i suggerimenti per contenuti dannosi. Grazie a questo cambiamento, il consumo di contenuti borderline che deriva dai nostri consigli è ora notevolmente inferiore all’1%.

Fonte: Mozilla
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
7 lug 2021
Link copiato negli appunti