Oltre due miliardi di account fake via da Facebook

Oltre due miliardi di account fake via da Facebook

Account fake, hate speech e contenuti in violazione delle policy: in un report l'impegno di Facebook per mantenere pulito il social network.
Oltre due miliardi di account fake via da Facebook
Account fake, hate speech e contenuti in violazione delle policy: in un report l'impegno di Facebook per mantenere pulito il social network.

Per capire quali siano le proporzioni del fenomeno legato agli account fake su Facebook è sufficiente pensare che nei primi tre mesi del 2019 il social network ne ha eliminati ben 2,19 miliardi. Quasi il doppio rispetto agli 1,2 miliardi dell’ultimo trimestre 2018. Quelli legittimi e attivi su base mensile sono 2,38 miliardi (circa 2,7 miliardi in totale quelli iscritti). È quanto emerge dal nuovo aggiornamento del Community Standards Enforcement Report pubblicato dal gruppo.

Facebook: Community Standards Enforcement Report

La piattaforma stima che il 5% circa degli account in circolazione debba essere considerato falso, circa 120 milioni. Un problema enorme, ma non l’unico che quotidianamente si trova ad affrontare. Lo 0,25% dei post è ritenuto in violazione delle policy riguardanti violenza o contenuti grafici non autorizzati, circa lo 0,11-0,14% è riconducibile a nudità o di natura sessuale. Ancora, pedopornografia e terrorismo interessano meno dello 0,03%.

Meritano attenzione i grafici allegati di seguito, che mostrano come l’impiego di algoritmi sempre più evoluti abbia permesso a Facebook di intercettare in modo proattivo e automatico le pratiche legate a un’altra piaga che affligge il mondo online, il fenomeno dell’hate speech. In blu la quota attribuita ai post identificati dal sistema (dal 24% al 65% in poco più di due anni), in azzurro quella segnalata dagli utenti.

La lotta di Facebook al fenomeno dell'hate speech

La tabella qui sotto indica invece quanti e quali siano i contenuti rimossi dal social network e resi nuovamente disponibili dopo un’opposizione manifestata da parte dell’utente. Tra le categorie prese in esame figurano bullismo, violenza, stupefacenti, terrorismo, sesso, pedopornografia, armi e spam.

I contenuti rimossi e poi resi nuovamente disponibili da Facebook

A partire dal prossimo anno Facebook pubblicherà aggiornamenti allo Community Standards Enforcement Report ogni trimestre e non più di sei mesi in sei mesi. Saranno inoltre incluse le informazioni riguardanti Instagram, piattaforma che nel corso degli anni (soprattutto in seguito all’acquisizione) è andata man mano evolvendo lasciandosi alle spalle l’etichetta di social dedicato esclusivamente a foto e video, diventando uno hub per lo shopping e purtroppo, talvolta, un veicolo per la disinformazione.

Fonte: Facebook
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 24 mag 2019
Link copiato negli appunti