La lotta di Facebook all'odio e all'estremismo

Facebook ridefinisce la policy per la lotta a hate speech, terrorismo ed estremismo: le novità interessano anche la community di Instagram.
Facebook ridefinisce la policy per la lotta a hate speech, terrorismo ed estremismo: le novità interessano anche la community di Instagram.

Prosegue senza sosta il processo di revisione delle policy da parte di Facebook. Oggi il social network in blu annuncia le modifiche che riguardano hate speech e contenuti riconducibili a terrorismo, violenza ed estremismo. Vanno ad applicarsi anche a Instagram.

Facebook, nuova policy su odio ed estremismo

Nel dettaglio, cambiano alcuni termini inclusi negli Standard della Community alla voce Persone e Organizzazioni Pericolose che ora tratta terrorismo, odio organizzato, omicidio di massa o seriale, traffico di esseri umani e violenza organizzata o attività criminale. Come esplicitato, alcune delle novità sono la conseguenza di quanto avvenuto nei mesi scorsi in occasione delle sparatorie di Christchurch (Nuova Zelanda), quando gli autori del folle gesto lo hanno condiviso in diretta streaming rendendolo immediatamente virale.

Facebook fa anzitutto riferimento ai sistemi automatizzati, perlopiù basati su algoritmi di analisi e machine learning, impiegati al fine di individuare in tempo pressoché reale e senza richiedere un intervento manuale i post e i contenuti da mettere al bando. Una tecnologia che pur essendo evoluta con il passare del tempo ancora non può essere considerata perfetta.

Viene poi precisato che sebbene il terrorismo costituisca una problematica globale, l’interpretazione del termine può variare da un luogo all’altro. Per questo motivo FB sottolinea la volontà di continuare a collaborare con le realtà di tutto il mondo affinché la doverosa e legittima lotta agli estremismi non finisca con l’impattare sulla libertà di parola e di espressione. Lo farà dialogando con le organizzazioni e con i membri della community, raccogliendo feedback ed eventualmente aggiustando il tiro. Del compito è incaricato un team ora composto da 350 persone.

Di recente il tema è stato al centro di un acceso dibattito anche nel nostro paese scatenato dalla decisione, presa da Facebook, di intervenire escludendo CasaPound dalla piattaforma per istigazione all’odio. Una posizione basata proprio sull’esigenza di garantire il rispetto delle regole fissate a tutela di una community globale composta da oltre due miliardi e mezzo di persone.

Fonte: Facebook
Link copiato negli appunti

Ti potrebbe interessare

Link copiato negli appunti