Non solo IA nella lotta al terrorismo di YouTube

Non solo IA nella lotta al terrorismo di YouTube

L'impegno di Google per garantire che i contenuti di matrice terrorista rimangano fuori da YouTube richiede parecchie risorse e notevoli investimenti.
Non solo IA nella lotta al terrorismo di YouTube
L'impegno di Google per garantire che i contenuti di matrice terrorista rimangano fuori da YouTube richiede parecchie risorse e notevoli investimenti.

Considerando l’enorme mole di contenuti che ogni minuto viene caricata su YouTube dagli utenti di tutto il mondo, l’impiego di sistemi automatizzati e soluzioni di intelligenza artificiale per controllare che nulla sia in violazione delle norme che regolano la piattaforma è d’obbligo. Ci sono però alcune situazioni, alcuni particolari ambiti, all’interno dei quali una revisione manuale è doverosa e necessaria: tra questi rientra a pieno titolo tutto ciò che ha a che fare con il terrorismo.

YouTube contro il terrorismo: non solo IA

Un tema complesso, di cui si sta discutendo anche nelle aule delle istituzioni europee. Il team al lavoro su YouTube ne ha parlato alla Camera dei Rappresentanti degli Stati Uniti, affermando di aver passato in rassegna manualmente oltre un milione di video sospetti solo nei primi tre mesi del 2019. Di questi, circa 90.000 sono stati ritenuti in violazione dei termini di servizio ed eliminati dall’archivio come previsto. Un’attività che, come si può ben immaginare, ha richiesto oltre a parecchie risorse in termini di personale anche un investimento quantificato in centinaia di milioni di dollari.

L’argomento è parecchio dibattuto a livello globale, ormai da tempo, ma ancor di più in seguito alla strage di Christchurch in Nuova Zelanda del marzo scorso, trasmessa in live streaming dagli attentatori sui social. Ai gestori delle piattaforme vengono da più parti richiesti una maggiore attenzione, interventi in tempi estremamente rapidi e l’adozione di soluzioni in grado di stroncare il problema sul nascere, identificando la natura malevola dei video, dei post o delle immagini condivise. A volte però, come abbiamo visto di recente, l’IA pasticcia ed etichetta come evento di matrice terroristica un accadimento che ha invece tutt’altra origine: è successo nelle scorse settimane, proprio su YouTube, con alcune dirette dell’incendio di Notre-Dame.

Google non ha risposto in modo del tutto esaustivo alle domande della politica statunitense relative all’impegno profuso nella lotta al terrorismo online. Oltre ad aver dichiarato (come già detto) di aver investito una cifra non indifferente, ha reso noto che oltre 10.000 collaboratori appartenenti a diverse divisioni della parent company Alphabet sono costantemente impiegati per operazioni legate alla revisione dei contenuti.

Fonte: Reuters
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
3 mag 2019
Link copiato negli appunti