YouTube, moderazione ad ogni costo

YouTube, moderazione ad ogni costo

I contenuti della piattaforma troppo spesso violano le regole e persino le leggi. Youtube modererà e verificherà i contenuti in maniera più stringente. E lo farà contando sul machine learning e molti più revisori in carne ed ossa
I contenuti della piattaforma troppo spesso violano le regole e persino le leggi. Youtube modererà e verificherà i contenuti in maniera più stringente. E lo farà contando sul machine learning e molti più revisori in carne ed ossa

Seppur la mole di contenuti video pubblicati su YouTube sia in crescita, non si può dire che lo stesso trend si ripercuota sulla qualità. Il recente restyling grafico ha gettato le basi per presupposti di miglioramento anche dei contenuti ospitati che dovrà passare attraverso un intervento di pulizia, l’imposizione di regole più rigide e controlli più stringenti . Ad esserne cosciente è l’azienda stessa che ha avviato un’opera di sensibilizzazione a favore del rispetto dei termini di servizio che chiaramente escludono contenuti “scomodi” o comunque problematici. “Stiamo intraprendendo queste azioni perché è la cosa giusta da fare (…) Con l’evolvere e il modificarsi delle sfide per la nostra piattaforma, i metodi di intervento dovranno evolvere per rispondere nel migliore dei modi. Qualunque sia la sfida, il nostro impegno a contrastarla sarà costante e senza esitazioni. Prenderemo tutte le misure necessarie per proteggere la nostra community e assicurarci che YouTube continui a essere un luogo in cui i creator, gli inserzionisti e gli utenti possano crescere” – conferma Susan Wojcicki, CEO di YouTube.

YouTube

Nell’ultimo periodo, per stessa ammissione dell’azienda, alcuni malintenzionati hanno utilizzato la piattaforma per indurre in errore, manipolare, molestare e danneggiare altri utenti . L’odio online è diventato un male che effettivamente affligge non solo i social network in senso stretto, ma anche piattaforme di condivisione video come YouTube. Per estirpare il problema alla radice è stato fatto ampio uso della tecnologia: la piattaforma ha adottato soluzioni di machine learning e sono state imposte delle barriere su quali tipi di contenuti possano essere monetizzabili, o ancora ha introdotto un sistema di reindirizzamento automatico a contenuti “puliti” nel caso in cui vengano ricercati video inappropriati. Ma queste accortezze funzionano se sono affiancate ad un intervento mirato di moderazione umana.

In tal senso, Google si è impegnata a portare a 10mila unità nel 2018 il numero totale delle persone che lavorano per indirizzare i contenuti che potrebbero violare le norme aziendali, tra le quali spicca YouTube, e una parte di queste saranno veri e propri revisori. Uno sforzo che permetterà di raggiungere obiettivi ancor più ambiziosi, considerando che i team Trust and Safety da giugno ad oggi hanno già rivisto manualmente circa 2 milioni di video con contenuti violenti di estremisti e 150mila di questi sono stati eliminati. Un lavoro impegnativo e oneroso necessario ad addestrare la tecnologia di machine learning che in futuro potrà identificare video di questa entità. Altro fronte verso cui c’è ampia attenzione sono i commenti ai video. Anche in questo caso l’attività di monitoraggio e intervento di rimozione è vivace e sarà sostenuta da provvedimenti rigorosi.

Se il machine learning da solo basterà a ripulire YouTube e a preservarne la pulizia, una scommessa su cui YouTube crede ( ad oggi il 98 per cento dei video rimossi per estremismo violento sono riconosciuti correttamente dai sistemi ), l’occhio umano rimarrà comunque fondamentale in questo delicato processo. Inoltre i sistemi di moderazione automatizzata permettono di minimizzare i tempi d’intervento : il 70 per cento dei video di estremismo violento vengono rimossi entro 8 ore da quando vengono caricati e circa la metà in 2 ore. Per dare un termine di paragone tra sistemi informatici e uomo, basti pensare che i video finora rimossi avrebbero richiesto l’intervento di 180mila addetti al lavoro per 40 ore settimanali.

Ad oggi le norme di YouTube appaiono chiare e la promessa della piattaforma è quella di renderle più trasparenti, così come trasparenti saranno i dati d’intervento che verranno resi pubblici attraverso report specifici. Parallelamente sono già in corso collaborazioni con associazioni ed enti di vario genere che possano fornire la loro visione, esperienza e conoscenza sui temi collegati alla moderazione di contenuti specifici, che potrebbero ad esempio esporre i minori o peggio ancora vederli come soggetti. Proprio di recente il New York Times ha sottolineato come la piaga della pedopornografia stia intaccando anche YouTube ( sfuggendo in alcuni casi persino al parental control).

Sulla falsa riga di quanto già condotto recentemente da Facebook, anche YouTube è intenzionato infine a rassicurare gli inserzionisti pubblicitari sulla bontà del mezzo. Mantenere la piattaforma pulita è l’unico modo per garantire che chi acquista pubblicità continui a farlo ancora a lungo e con investimenti maggiori. Siamo sicuri che la promessa di “rinforzo del team di revisori della pubblicità per essere sicuri che gli annunci compaiano solo dove previsto”, non sono parole al vento. Con un articolo sul blog dedicato ai creatori di contenuti, YouTube spiega che: “stiamo applicando criteri più stringenti e conducendo più revisione manuale, oltre che aumentando in modo significativo il team di revisori per assicurare che la pubblicità sia mostrata solo dove gli inserzionisti vogliono che appaia. Ciò consentirà di limitare le demonetizzazioni inaccurate e allo stesso tempo di fornire ai creatori maggiore stabilità sulle loro entrate. Abbiamo intenzione di parlare con i creatori nelle prossime settimane per riuscire a introdurre questo nuovo approccio”.

Mirko Zago

fonte immagine

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 dic 2017
Link copiato negli appunti