Inchiesta di Dispatches racconta come Facebook modera i contenuti


Un'indagine sotto copertura di Firecrest Films per Channel 4 Dispatches ha rivelato per la prima volta come Facebook decide quali contenuti gli utenti possono e non possono vedere sulla piattaforma. Dispatches ha inviato un reporter investigativo per lavorare in incognito come "content moderator" nel più grande centro di Facebook per la moderazione dei contenuti nel Regno Unito. Il lavoro è esternalizzato ad una società chiamata Cpl Resources con sede a Dublino, in Irlanda, e con cui il social network collabora dal 2010. In seguito alla trasmissione, Facebook ha risposto con un post sul suo blog, facendo il punto su alcune importanti questioni sollevate da Channel 4 News.

L'indagine, raccontata in un documentario dal titolo "Inside Facebook: Secrets of the Social Network", rivela la formazione impartita ai moderatori per decidere quali contenuti segnalati dagli utenti come fake news, hate speech, minori vittime di abusi, violenza e razzismo, dovrebbero essere autorizzati a rimanere sul sito o essere cancellati. Il documentario rivela che viene detto allo staff di lasciare sulla piattaforma i contenuti estremi perché "se si inizia a censurare troppo, le persone perdono interesse per la piattaforma". Secondo tali accuse, mosse da un investitore e mentore di Facebook, il modello di business della società beneficia di contenuti estremi per coinvolgere gli spettatori più a lungo, in modo da generare maggiori entrate pubblicitarie.

In particolare, l'inchiesta rivela che i contenuti violenti come immagini grafiche e video di aggressioni sui bambini, rimangono sul sito, nonostante vengano segnalati dagli utenti come inappropriati e malgrado le numerose richieste di rimozione. Nel servizio vengono evidenziate le politiche che consentono l'incitamento all'odio verso immigrati etnici e religiosi con istruttori che addestrano i moderatori a ignorare, sostanzialmente, i contenuti razzisti in conformità con le policy di Facebook. Le pagine appartenenti a gruppi di estrema destra, con un numero elevato di follower, hanno permesso di superare la soglia di cancellazione e sono soggette a trattamenti diversi nella stessa categoria di pagine appartenenti a governi e organizzazioni di notizie.

Dispatches, inoltre, ha filmato la moderazione giornaliera dei contenuti sul sito, rivelando che migliaia di post segnalati sono rimasti non moderati sulla piattaforma mentre stava girando il documentario, oltre l'obiettivo dichiarato di Facebook di un turnaround di 24 ore, inclusi post relativi potenzialmente a minacce di suicidio e autolesionismo. I moderatori hanno detto di non intraprendere alcuna azione se il contenuto mostra un bambino che è visibilmente al di sotto del limite di 13 anni, età minima richiesta per poter creare un account su Facebook, in conformità con il Child Online Protection Act (Copa), una legge sulla privacy del 1998 approvata negli Stati Uniti per proteggere i minori dallo sfruttamento e dai contenuti dannosi su Internet.

Tale approccio viene intrapreso anche  in presenza di contenuti che includono autolesionismo. Questo perché l'utente viene trattato come un adulto e ha inviato informazioni su organizzazioni che aiutano con problemi di autodistruzione. Una delle aree più sensibili del regolamento sui contenuti di Facebook, spiega Channel 4, riguarda la violenza grafica. Quando si ha a che fare con contenuti grafici violenti, i moderatori hanno tre opzioni: ignorare, eliminare o contrassegnare come disturbante che pone restrizioni su chi può vedere il contenuto. Il giornalista in incognito ha visto moderare un video che mostra due studentesse adolescenti che combattono. Entrambe le ragazze sono chiaramente identificabili e il video ha raccolto più di mille condivisioni.

Secondo le regole di Facebook poiché il video è stato pubblicato con una didascalia che condanna la violenza e avvisa le persone di stare attenti a visitare il luogo in cui è stato girato, non dev'essere cancellato e deve invece essere lasciato sul sito e contrassegnato come contenuto inquietante. Facebook ha dichiarato a Dispatches che il bambino o il genitore in un video come questo può chiederne la rimozione. Richard Allan, VP delle Public Policy di Facebook, ha detto: "Quando le persone mettono in evidenza un problema e condannano il problema, anche se il problema è doloroso, ci sono molte circostanze in cui le persone ci dicono, guardate Facebook, non dovreste interferire con la mia capacità di evidenziare un problema che si è verificato".

Al giornalista infiltrato viene detto che, mentre i contenuti che violano razzialmente gruppi etnici o religiosi protetti violano le linee guida di Facebook, se i messaggi violano razzialmente gli immigrati da questi gruppi, il contenuto è permesso. Al reporter viene detto che se viene trovata una pagina contenente cinque o più contenuti che violano le regole di Facebook, l'intera pagina deve essere rimossa, in conformità con le politiche dell'azienda. Channel 4 ha scoperto che i post sulle pagine più popolari di Facebook, con il maggior numero di follower, non possono essere cancellate dai normali moderatori di contenuti di Cpl. In questo caso si attiva una seconda fase di verifica dove l'analisi dei contenuti viene effettuata direttamente da Facebook.

Un moderatore dice al reporter in incognito che le pagine relative al gruppo di estrema destra Britain First sono state lasciate online, nonostante le ripetute segnalazioni perché "hanno moltissimi follower che generano un sacco di entrate per Facebook". La prima pagina Facebook di Britain First è stata cancellata nel marzo 2018 in seguito all'arresto del vice leader Jayda Fransen. L'obiettivo dichiarato di Facebook è di valutare tutti i contenuti segnalati entro 24 ore. Tuttavia, durante il periodo delle riprese sotto copertura, Dispatches ha riscontrato un notevole ritardo. I moderatori hanno detto al reporter in incognito che, a causa del volume di segnalazioni, sono in grado di controllare non oltre 7.000 commenti segnalati su base giornaliera.


Dopo aver guardato il programma, Facebook ha inviato una lettera alla Firecrest Films, casa di produzione del documentario, spiegando che i materiali di addestramento per i moderatori verranno aggiornati. "Desideriamo chiarire che rimuoviamo i contenuti da Facebook, indipendentemente da chi li pubblica, quando violano i nostri standard. Non ci sono protezioni speciali per nessun gruppo, a destra o a sinistra. 'Verifica incrociata' - il sistema descritto in Dispatches - significa semplicemente che a determinati contenuti di determinate pagine o profili viene fornito un secondo livello di revisione per assicurarci di aver applicato correttamente le nostre norme", scrive Monika Bickert, Vice Presidente della Gestione delle Politiche Globali di Facebook.

"Questo di solito si applica a pagine o contenuti di alto profilo, regolarmente visitati su Facebook, in modo che non vengano erroneamente rimossi o abbandonati. Molte pagine delle organizzazioni dei media - da Channel 4 a The BBC e The Verge - sono state incrociate. Potremmo anche verificare i rapporti sui contenuti pubblicati da celebrità, governi o Pagine in cui abbiamo commesso errori in passato. Ad esempio, abbiamo effettuato un controllo incrociato su un account di attivisti americani per i diritti civili per evitare di cancellare erroneamente i casi in cui sono stati sollevati consapevolmente discorsi di incitamento all'odio. Per essere chiari, il Cross Checking su Facebook non protegge il profilo, la pagina o il contenuto dalla rimozione".

"Viene semplicemente fatto per assicurarci che la nostra decisione sia corretta. Britain First era una Pagina cross checked. Ma la nozione che in ogni caso è stato protetto il contenuto è sbagliata. In effetti, abbiamo rimosso Britain First da Facebook a marzo perché le loro pagine hanno ripetutamente violato i nostri standard comunitari. Non è consentito ai minori di 13 anni avere un account Facebook. Se qualcuno ci viene segnalato che ha meno di 13 anni, il revisore esaminerà il contenuto del suo profilo (testo e foto) per cercare di accertare la sua età. Se ritengono che la persona abbia meno di 13 anni, l'account verrà messo in attesa e la persona non sarà in grado di utilizzare Facebook fino a quando non fornirà la prova della sua età", prosegue Bickert.

"Fin dal programma, abbiamo lavorato per aggiornare la guida dei revisori per mettere una stretta su qualsiasi account che incontrano se hanno una forte indicazione che è minorenne, anche se il rapporto era per qualcos'altro". Facebook dice che aggiornerà il suo materiale di formazione per tutti i moderatori di contenuti, rivedendo le pratiche di allenamento di tutti i team, per assicurare che chiunque si comporti in modi incoerenti con i valori di Facebook. "Le persone di tutto il mondo usano Facebook per connettersi con amici e familiari e discutere apertamente idee diverse. Ma condivideranno solo quando sono al sicuro. Ecco perché abbiamo regole chiare su ciò che è accettabile su Facebook e sui processi stabiliti per applicarle", spiega Bickert.

"Stiamo lavorando sodo su entrambi, ma non sempre lo facciamo bene". Cpl Resources di Dublino, il più grande centro di moderazione dei contenuti di Facebook. Questa settimana un rapporto televisivo su Channel 4 nel Regno Unito ha sollevato questioni importanti su tali politiche e processi, inclusa l'assistenza fornita durante le sessioni di formazione a Dublino. È chiaro che parte di ciò che è presente nel programma non riflette le politiche o i valori di Facebook e non è all'altezza degli elevati standard che ci aspettiamo. Prendiamo questi errori incredibilmente sul serio e siamo grati ai giornalisti che li hanno portati alla nostra attenzione. Abbiamo indagato esattamente su cosa è successo in modo che possiamo evitare che questi problemi si ripetano".

"Ad esempio, abbiamo immediatamente richiesto a tutti i trainer di Dublino di fare una sessione di riqualificazione e ci stiamo preparando a fare lo stesso a livello globale. Abbiamo anche esaminato le domande strategiche e le azioni di contrasto che il giornalista ha sollevato e corretto gli errori che abbiamo trovato. Abbiamo fornito tutte queste informazioni al team di Channel 4 e incluso dove non siamo d'accordo con le loro analisi. Anche il nostro Vicepresidente per le Soluzioni delle Policy Globali, Richard Allan, ha risposto alle loro domande in un'intervista on-camera. La nostra risposta scritta e una trascrizione dell'intervista possono essere trovate per intero qui e qui". Facebook nega che le regole per la rimozione dei contenuti si basi sui ricavi.

"È stato suggerito che chiudere un occhio sui contenuti negativi è nei nostri interessi commerciali. Questo non è vero. Creare un ambiente sicuro in cui persone da tutto il mondo possano condividere e connettersi è fondamentale per il successo a lungo termine di Facebook. Se i nostri servizi non sono sicuri, le persone non condivideranno e nel tempo smetterebbero di usarli. Né gli inserzionisti vogliono che i loro marchi siano associati a contenuti inquietanti o problematici". Per aiutare a gestire i contenuti, Facebook collabora con diverse aziende in tutto il mondo, tra cui Cpl, la società presente nel programma. Per tipi specifici e contenuti altamente problematici come l'abuso di minori, le decisioni finali vengono prese dai dipendenti di Facebook.

Nel frattempo, il social network sta intensificando gli sforzi nella divisione Facebook AI Research (FAIR) per risolvere alcuni problemi di moderazione senza la necessità di alcun input umano. Inoltre, sta investendo in nuove tecnologie per contribuire ad affrontare i contenuti problematici in maniera più efficace. "La revisione dei report in modo rapido e accurato è essenziale per mantenere le persone al sicuro su Facebook. Questo è il motivo per cui raddoppiamo il numero di persone che lavorano sui nostri team di sicurezza e protezione quest'anno a 20.000". Ad esempio, Facebook ora utilizza la tecnologia per rilevare e rimuovere la propaganda terroristica nonchè le immagini di abusi sessuali su minori prima che vengono segnalati.



Nessun commento:

Posta un commento