YouTube: nuove misure contro la disinformazione

YouTube: nuove misure contro la disinformazione

YouTube ha annunciato lo sviluppo di nuove misure che permetteranno di ridurre ulteriormente la diffusione delle fake news sulla piattaforma.
YouTube: nuove misure contro la disinformazione
YouTube ha annunciato lo sviluppo di nuove misure che permetteranno di ridurre ulteriormente la diffusione delle fake news sulla piattaforma.

YouTube è il servizio di video sharing più utilizzato al mondo e milioni di persone lo usano come fonte principale di informazione. L’azienda di Mountain View cerca di contrastare la diffusone delle fake news attraverso varie tecnologie, ma non sempre con risultati ottimali (in alcuni casi, l’algoritmo suggerisce video inguardabili). Un post pubblicato sul blog ufficiale elenca le tre sfide che YouTube deve affrontare.

Nuove misure contro la disinformazione

Da circa cinque anni, YouTube segue il framework denominato “4R di Responsabilità” (Remove, Raise, Reduce e Reward). L’obiettivo è rimuovere il più velocemente possibile i contenuti che violano i termini d’uso del servizio, utilizzando una combinazione di machine learning e intervento umano. Questo approccio deve essere però aggiornato per fronteggiare la crescente velocità di diffusione delle fake news.

La prima sfida da affrontare riguarda il blocco della disinformazione prima che diventi virale. I sistemi di machine learning attuali possono facilmente individuare video su argomenti specifici, ma sono meno efficaci quando ci sono contenuti misti (un trucco usato spesso dagli autori dei video per non essere scoperti). YouTube cerca di consigliare video da fonti autorevoli, ma in alcuni casi la fake news ha già raggiunto una viralità eccessiva. L’azienda di Mountain View ha avviato i test per una serie di soluzioni, come avvisi che informano gli utenti della scarsa qualità del contenuto.

Un’altra sfida è rappresentata dalla diffusione dei video “borderline” su altre piattaforme. YouTube non rimuove questi contenuti, ma non li consiglia agli utenti. I video possono però diventare virali su altri siti attraverso link o embed. La soluzione più drastica sarebbe quella di disattivare la condivisione o “rompere” il link al video. L’approccio meno aggressivo prevede l’inserimento di un video interstitial all’inizio del contenuto per avvertire l’utente, come avviene nei video vietati ai minori.

L’ultima sfida da affrontare è relativa alle diverse lingue e culture. Una fake news su un evento che accade solo in un paese è più difficile da individuare. Inoltre ci sono meno fonti autorevoli da suggerire agli utenti. Analogamente è più complicato decidere quali video devono essere classificati come “borderline”. YouTube aggiornerà la tecnologia di machine learning, assumerà persone che comprendono le sfumature regionali e contatterà esperti locali.

Fonte: YouTube
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
18 feb 2022
Link copiato negli appunti