Facebook: incitamento all'odio diminuito del 50%

Facebook: incitamento all'odio diminuito del 50%

Facebook ha contestato un altro articolo del Wall Street Journal che evidenzia l'inefficacia dell'intelligenza artificiale nel rimuovere i contenuti.
Facebook: incitamento all'odio diminuito del 50%
Facebook ha contestato un altro articolo del Wall Street Journal che evidenzia l'inefficacia dell'intelligenza artificiale nel rimuovere i contenuti.

Ennesimo botta e risposta tra il Wall Street Journal e Facebook. In seguito all’articolo del quotidiano newyorchese, che evidenzia la scarsa affidabilità dell’intelligenza artificiale nel rimuovere determinati contenuti dal social network, l’azienda di Menlo Park ha pubblicato un post per comunicare che l’incitamento all’odio è diminuito del 50% negli ultimi tre trimestri.

Facebook contesta di nuovo il WSJ

Il Wall Street Journal ha pubblicato una serie di articoli, basati sui documenti forniti dalla ex dipendente Frances Haugen, che dimostrano la lentezza con cui Facebook rimuove i contenuti vietati. In alcuni casi avrebbe intenzionalmente “aizzato” le discussioni tra gli utenti, dopo aver modificato appositamente l’algoritmo del News Feed. Su questo punto è arrivata la smentita del CEO Mark Zuckerberg.

L’articolo più recente del WSJ, pubblicato ieri, svela che Facebook ha incrementato l’uso dell’intelligenza artificiale per l’identificazione dei contenuti vietati dalle regole, come quelli che incitano all’odio. Questa soluzione si è rivelata poco efficace, visto che sono stati eliminati post che generano solo il 3-5% delle visualizzazioni di “hate speech” e lo 0,6% di tutti i contenuti che violano le regole.

Facebook ha dichiarato che i dati estrapolati dai documenti non rappresentano in maniera adeguata il lavoro fatto per limitare la diffusione di determinati contenuti. Su 10.000 visualizzazioni, solo 5 riguardano i post che incitano all’odio. L’azienda di Menlo Park sottolinea inoltre che non devono essere considerati solo i contenuti eliminati, ma anche quelli che vengono penalizzati (ad esempio nascosti nel News Feed o non suggeriti). La soglia di rimozione è alta per evitare di cancellare post per errore.

Facebook afferma infine che solo il 23,6% dei contenuti eliminati viene rilevato automaticamente dall’intelligenza artificiale. La maggioranza (97%) viene segnalato dagli stessi utenti. La metrica più importante è denominata prevalenza, ovvero la percentuale dei contenuti visualizzati in quanto non rilevati. In base ai dati pubblicati, la prevalenza è diminuita del 50% negli ultimi tre trimestri.

Fonte: Facebook
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
18 ott 2021
Link copiato negli appunti