Facebook: meno errori di moderazione, più violenza

Facebook: meno errori di moderazione, più violenza

In base ai report di Meta sono diminuiti gli errori di moderazione, ma sono aumentati i contenuti violenti, oltre a quelli di bullismo e molestie.
Facebook: meno errori di moderazione, più violenza
In base ai report di Meta sono diminuiti gli errori di moderazione, ma sono aumentati i contenuti violenti, oltre a quelli di bullismo e molestie.

Meta ha pubblicato gli Integrity Report relativi a Facebook e Instagram che coprono i primi tre mesi del 2025. L’azienda di Menlo Park sottolinea che sono diminuiti gli errori di moderazione in seguito alle modifiche introdotte a gennaio. Sono però aumentati i contenuti violenti, oltre a molestie e bullismo.

Più libertà di espressione, più violenza

Meta ha deciso a gennaio di cambiare le regole di moderazione dopo aver registrato un aumento di contenuti eliminati per errore e di utenti ingiustamente penalizzati. In pratica, l’azienda di Menlo Park ha “allargato le maglie” per offrire una maggiore libertà di espressione (molta apprezzata dall’amministrazione Trump).

Il programma di fact-checking è stato eliminato negli Stati Uniti e sostituito dalle Community Notes (basate sull’algoritmo di X). Meta ha inoltre rimosso le restrizioni su alcuni argomenti più discussi, tra cui immigrazione e identità di genere. Gli Integrity Report del primo trimestre permettono di valutare l’efficacia di queste novità.

L’azienda di Menlo Park sottolinea che gli errori di moderazione sono diminuiti del 50%. Non è chiaro come è stata calcolata la percentuale. In futuro verranno aggiunte le relative metriche ai report.

Il numero della maggioranza delle violazioni è rimasto invariato, ma ci sono due eccezioni. Meta ha rilevato un aumento dei contenuti di bullismo e molestie su Facebook dallo 0,06-0,07% allo 0,07-0,08%. È stato inoltre registrato un aumento dei contenuti violenti su Facebook dallo 0,06-0,07% allo 0,09% circa.

Sembrano quindi dati molto positivi, ma su Facebook ci sono oltre 3 miliardi di utenti che pubblicano centinaia di miliardi di post. Ipotizzando un post al giorno per ogni utente, in tre mesi vengono pubblicati 270 miliardi di post. Quindi circa 243 milioni sono contenuti violenti.

Meta non ha pubblicato dati sulle note della collettività disponibili su Facebook, Instagram e Threads (solo negli Stati Uniti). Dovrebbero essere forniti nei prossimi mesi.

Fonte: Engadget
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
30 mag 2025
Link copiato negli appunti