Moderatore contro Facebook: siamo troppo esposti

Moderatore contro Facebook: siamo troppo esposti

Una Content Moderator di Facebook denuncia il gruppo perché non offre tutela né assistenza per lavoratori continuamente esposti a contenuti violenti.
Moderatore contro Facebook: siamo troppo esposti
Una Content Moderator di Facebook denuncia il gruppo perché non offre tutela né assistenza per lavoratori continuamente esposti a contenuti violenti.

Cosa significa rimanere esposti per molte ore al giorno, tutti i giorni, alle peggio cose che l’essere umano è in grado di esprimere in termini di concetti, espressioni, idee e immagini? Per un Content Moderator di Facebook significa che la tua azienda non ti sta tutelando da qualcosa in grado di segnarti profondamente, meritandosi una denuncia con l’ambizione di diventare class action.

Sulla notizia in sé ad oggi non si sa molto di più se non che il passo formale è stato compiuto e Facebook dovrà ora difendersi dalle accuse della dipendente, Selena Scola, che ha sporto denuncia (pdf). Quel che si sa è che l’accusa giunge da una delle migliaia di persone che, per conto di Facebook, hanno l’onere di verificare ogni singolo giorno milioni di contenuti che si presumono contrari alle linee guida del social network. Chi assume questo incarico ben sa a cosa va incontro, sebbene spesso non si riesca ad immaginare quanto la cosa possa portare a turbe psichiche in virtù della continua esposizione a materiale che nemmeno si può immaginare a priori. Alle aziende si chiede pertanto un minimo di tutela ed assistenza, affinché ogni possibile superamento della soglia di tolleranza possa essere gestito da esperti.

Questo tipo di sofferenza viene definita PTSD, ossia disturbo da stress post-traumatico. Per comprendere meglio ciò che intende l’accusatrice, offrendo peraltro uno spaccato di quello che su Facebook non vediamo (poiché preventivamente bloccato):

Ogni giorno gli utenti di Facebook caricano milioni di video, immagini e livestream di abusi sessuali su bambini, stupri, decapitazioni, suicidi e omicidi. Per mantenere sana la propria piattaforma, massimizzando i propri vasti profitti, e per coltivare la propria immagine pubblica, Facebook si affida a persone come la signora Scola affinché veda questi post e rimuova quelli che violano le regole del gruppo.

“Vai al lavoro ogni mattina alle 9, accendi il tuo computer e guardi qualcuno che taglia teste. Ogni giorno, ogni minuto, questo è quel che vedi. Teste tagliate”.

L’accusa punta il dito contro il modo con cui Facebook espone i propri moderatori ai contenuti violenti senza alcun elemento mitigante, senza offrire assistenza e senza badare agli effetti collaterali che questo tipo di lavoro può comportare. E di questo se ne occuperanno le autorità competenti, alle quali spetterà verificare non tanto la veridicità della descrizione del tipo di lavoro del moderatore, quanto l’effettiva carenza di misure di tutela (il lavoro compiuto dal gruppo di Menlo Park con i propri Content Moderator è stato dettagliato solo pochi mesi or sono direttamente sul blog del social network). Facebook impiega ad oggi circa 7500 persone con questo tipo di incarico, ma il numero è destinato a lievitare in tempi brevi fino a 20 mila unità (in parte dipendenti, in parte assunte da agenzie esterne).

Una soluzione definitiva al problema oggi non esiste, ma esistono misure utili a calmierare l’impatto che tali violenze possono avere su migliaia di moderatori che, chi per Facebook e chi per Google, chi per Twitter e chi per YouTube, hanno l’onere di lavorare come filtri per rendere più puro il clima delle community online. Uno degli strumenti recentemente adottati da Google, ad esempio, è un filtro basato su Intelligenza Artificiale con cui i contenuti vengono già fortemente filtrati a monte, così da lasciare al controllo umano solo una parte minore del lavoro. Le cosiddette Content Safety API, infatti, sono in grado di identificare il “child sexual abuse material” (CSAM), con il vantaggio di mitigare il numero di contenuti con cui i moderatori in carne ed ossa vanno ad impattare. Per contro ci sono sempre più pressioni politiche affinché i social media aumentino i controlli sui contenuti, al fine di mitigare l’impatto di contenuti violenti con il grande pubblico. Per controbilanciare tali pressioni, i social media devono al tempo stesso aumentare qualità e quantità dei filtri, coinvolgendo sempre più risorse umane in questo compito ingrato, ma dovranno altresì immaginare strumenti tecnologici e assistenziali affinché il filtro umano non debba andarsi ad intasare: dover rovistare ogni giorno, tutto il giorno, nella melma delle bassezze che l’uomo è in grado di fare è qualcosa che, inevitabilmente, segna a fondo.

Fonte: Mashable
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
26 set 2018
Link copiato negli appunti