Facebook ha preso misure di moderazione contro quasi 1,5 miliardi di account e post che hanno violato i suoi standard comunitari nei primi tre mesi del 2018. Lo ha rivelato la stessa compagnia di Menlo Park nel primo rapporto trimestrale sull’applicazione degli standard comunitari. Facebook ha affermato che la stragrande maggioranza delle azioni di moderazione è stata contro spam e account falsi: ha agito su 837 milioni di post spam e chiuso altri 583 milioni di account falsi in tre mesi. Ma Facebook ha riferito anche di aver moderato 2,5 milioni di discorsi di incitamento all’odio, 1,9 milioni di post di propaganda terroristica, 3,4 milioni di immagini violente e 21 milioni di contenuti di nudità e attività sessuale per adulti.
“Siamo ancora all’inizio”
«Questo è l’inizio e non la fine del viaggio e stiamo cercando di essere il più aperti possibile», ha dichiarato Richard Allan, vicepresidente delle politiche pubbliche di Facebook per l’Europa, il Medio Oriente e l’Africa. La quantità di contenuti moderati da Facebook è influenzata sia dalla capacità dell’azienda di trovare e agire sul materiale che viola le norme, sia dalla quantità di segnalazioni inviate dagli utenti. Ad esempio, Alex Schultz, vicepresidente della società di analisi dei dati, ha dichiarato che la quantità di contenuti moderati per violenza grafica è quasi triplicata rispetto al trimestre precedente. Un’ipotesi per l’aumento, ha detto Schultz, è che «nel trimestre più recente, alcune cose cattive sono accadute in Siria. Spesso quando ci sono cose veramente brutte nel mondo, molte cose arrivano su Facebook». Ha sottolineato che la maggior parte della moderazione in questi casi è stata «semplicemente contrassegnare qualcosa di molto fastidioso». Diverse categorie di contenuti che violano le linee guida di Facebook – tra cui immagini di sfruttamento sessuale dei bambini, ricatti porno, violenze credibili, post suicidi, bullismo, molestie, violazioni della privacy e violazione del copyright – non sono inclusi nella relazione. Sullo sfruttamento dei bambini, Schultz ha affermato che l’azienda deve ancora prendere decisioni su come classificare diversi tipi di contenuto, come ad esempio le immagini dei cartoni animati.
L’utilizzo dell’Intelligenza Artificiale
Facebook è anche riuscita ad aumentare la quantità di contenuti eliminati con nuovi strumenti basati su AI che ha utilizzato per trovare e moderare il contenuto senza che i singoli utenti lo segnalassero come sospetto. Questi strumenti hanno funzionato particolarmente bene per contenuti come account falsi e spam. La società ha affermato di essere riuscita a utilizzare gli strumenti di AI per trovare il 98,5% degli account falsi chiusi e “quasi il 100%” dello spam. La segnalazione automatica ha funzionato bene per trovare esempi di nudità, dal momento che, secondo Schultz, era facile per la tecnologia di riconoscimento delle immagini sapere cosa cercare. Più difficile, a causa della necessità di prendere in considerazione gli indizi contestuali, è stata la moderazione per l’incitamento all’odio. In quella categoria, Facebook ha dichiarato: «Abbiamo trovato e segnalato circa il 38% dei contenuti su cui successivamente abbiamo agito, prima che gli utenti ce li segnalassero».
Leggi anche –> Facebook utilizza la tue immagini di Instagram per addestrare algoritmi di Intelligenza Artificiale