Rivelati i documenti interni di Facebook sulla censura dei contenuti


Il marocchino Amine Derkaoui, 21 anni marocchino, è furibondo con Facebook. L'anno scorso ha trascorso una formazione di poche settimane per esaminare i contenuti illeciti su Facebook attraverso una società di outsourcing, per la quale è stato pagato un misero 1 dollaro l'ora. Ed è ancora fumante per questo. "E' umiliante. Sono solo sfruttamenti da terzo mondo", Derkaoui ha lamentato con un forte accento francese, su Skype a poche settimane dal record di Facebook che ha depositato 100 miliardi dollari Ipo.

Come una sorta di payback (conto in sospeso), Derkaoui ha fornito a Gawker alcuni documenti interni, che gettano luce su come Facebook esattamente censura il contenuto buio che non desidera vedere, e le persone il cui compito è quello di assicurarsi che ciò avvenga. Facebook cerca di mantiene l'ambiente pulito da porno, violenze, razzismo, bullismo, grazie al lavoro di un piccolo esercito di moderatori di contenuti umani come Derkaoui. "Lavoriamo per promuovere un ambiente in cui tutti possono discutere apertamente i problemi e di esprimere le proprie opinioni, rispettando nel contempo i diritti degli altri", si legge nelle norme comunitarie di Facebook.

Ma camminare sul confine tra mantenere pulito Facebook e censurare eccessivamente i suoi contenuti è difficile, e lo zelo di Facebook nel lavaggio dei contenuti degli utenti ha portato a una serie di tumulti. Lo scorso aprile, hanno eliminato un innocente bacio gay e sono stati accusati di omofobia, pochi mesi prima, la rimozione di un disegno del nudo ha scatenato ire del mondo dell'arte. Più di recente, arrabbiati "lactivists" hanno inscenato proteste sulla cancellazione su Facebook delle foto di una mamma che allatta il proprio bimbo.

Questi scandali di censura non hanno aiutato all'opacità di Facebook riguardo il suo processo di moderazione dei contenuti. Ogni volta che Facebook cancella l'immagine che ritiene discutibile, rimanda l'utente in questione alla sua vagante Dichiarazione dei diritti e delle responsabilità. Questa politica è vaga quando si tratta di moderazione dei contenuti, e probabilmente è intenzionalmente così. Se gli utenti sapessero esattamente quali criteri sono stati utilizzati per giudicare il loro contenuto, sarebbe chiaro il motivo per cui Facebook abbia scelta di censurare in base alle sue politiche, e non si tratterebbe di una censura arbitraria.

Derkaoui ha fornito a Gawker una copia delle linee guida specifiche sorprendenti sui dettami di Facebook ai moderatori dei contenuti. Il primo sguardo del pubblico è esattamente ciò che Facebook considera al di là del pallido, e quali sono i contenuti abbozzati che non permetteranno di pubblicare video, immagini e messaggi in bacheca. Il documento è essenzialmente una mappa del terreno morale di Facebook.

Il contenuto di moderazione della squadra Derkaoui utilizza un strumento basato sul Web per visualizzare un flusso di immagini, video e messaggi in bacheca che sono stati segnalati dagli utenti. Per cancellare il contenuto essi confermano col flag, unconfirm permette di mantenersi, o ad aumentare a un livello superiore di moderazione, che rimanda il contenuto in questione ai dipendenti di Facebook.


A una pagina cheat sheet del manuale di 17 pagine si delinea esattamente ciò che deve essere confermato e cancellato dal team. (Il cheat sheet è visibile a sinistra;. Il documento completo può essere visto sotto). E' diviso in categorie come "Scene di sesso e nudo", "Contenuti di odio", "Contentuti grafici" e "Bullismo e molestie". Il documento è aggiornato al mese scorso. Facebook, a quanto pare, eliminara roba abbastanza tranquilla. Ad esempio, uno dei seguenti contenuti verrà eliminato, secondo gli orientamenti:
  • Sfacciata (ovvia) rappresentazione delle dita dei piedi cammello e nocche delle alci.
  • Madri che allattano, senza vestiti addosso.
  • Giocattoli sexy o altri oggetti, ma solo nel contesto di attività sessuale.
  • Raffigurazioni fetish sessuali in qualsiasi forma.
  • Tutte le immagini manipolate di persone, se negative, positive o neutre.
  • Immagini di gente ubriaca e senza coscenza, o persone che dormono con delle cose disegnate sulla loro faccia.
  • Discorsi violenti (Esempio: "A me piace sentire crepare le teste.").
Quando si tratta di sesso e nudità, Facebook lo scrive strettamente alla pagina 13, secondo le linee guida. Ovviamente l'attività sessuale, anche vestita, viene eliminata, così come lo sono "parti private nude dei capezzoli femminili tra cui rigonfiamenti e natiche nude." Ma "i capezzoli maschili sono OK."Il Foreplay non è permesso", anche per persone dello stesso sesso (uomini-uomini/donne-donne)". Anche i gay che si baciano su Facebook.

Facebook è più indulgente quando si tratta di violenza. Le immagini cruente non sono consentite, come le viscere di qualcuno che a lungo sono fuoriusciti. Ma le "Teste schiacciate, arti ecc. vanno bene fintanto che non stanno mostrando gli interni", recita una guida. "Ferite profonde della carne sono ok per mostrarli, il sangue eccessivo è ok da mostrare". Le droghe sono un sacchetto mix. Immagini di marijuana sono esplicitamente consentiti, anche se le immagini di altre droghe illegali "non nel contesto di studio medico, accademico o scientifico" sono soppresse. Finché non compare che siete un rivenditore, è possibile postare le immagini più volte dei vostri nascondigli come si desidera.

Nei "Contenuti di odio", le linee guida specificamente vietano "Foto contro... foto a confronto con due persone fianco a fianco" che sono ironiche, senza considerare che è stato il primo successo di Mark Zuckerberg, il FaceSmash e classificato come attrattiva delle studentesse di Harvard. Alcuni tipi di contenuto vengono giudicati fortemente dal contesto. Ad esempio, i video di lotta scolastici vengono eliminati solo se "il video è stato inviato per continuare tormentare la persona presa di mira nel video". L'incitamento all'odio è consentito nel caso di uno scherzo, gli abusi sugli animali e video possono rimanere solo se è chiaro che l'utente non ha approvato.

Facebook ha lottato con la questione dell'aborto. Il mese scorso, un post che offre istruzioni sull'aborto fai da te era stato "accidentalmente" cancellato dalla pagina di un olandese attivista per i diritti riproduttivi. Sostenitori anti-abortisti a volte si lamentano che Facebook censura le loro immagini grafiche di feti abortiti. Mentre le linee guida non fanno menzione dell'aborto, una discussione in un forum utilizzato da Facebook con i contenuti moderati che Derkaoui ha mostrato a Gawker mettono in luce la politica sull'aborto di Facebook. Il moderatore scrive:

"L'aborto in tutte le sue forme è consentito di essere rappresentato, a meno che non viola la violenza grafica o immagini di nudo standard. Ciò significa che gli utenti possono mostrare le immagini così come parlare di aborto, discutere, ecc. E' solo una violazione se il contenuto grafico, ad esempio lo smembramento o la decapitazione è mostrata, o se gli interni sono visibili".

Alcuni contenuti devono essere sottoposti a un livello superiore di revisione. Ciò include minacce credibili contro persone o personaggi pubblici, contenuti suicida, e incoraggiamenti a commettere crimini. Forse la cosa più intrigante è la categoria dedicata alla "compliance internazionale". In questa categoria, qualsiasi negazione dell'Olocausto, che "si concentra sul discorso di odio", tutti gli attacchi contro il fondatore della Turchia, Ataturk, e la masterizzazione di bandiere turche deve essere intensificato. È probabile che per mantenere Facebook in linea con le leggi internazionali, in molti paesi europei, la negazione dell'Olocausto è fuorilegge, così come gli attacchi contro Ataturk in Turchia.

Un portavoce di Facebook ha detto a Gawker in una dichiarazione che il documento "fornisce una panoramica in tempo dei nostri standard per quanto riguarda [] uno dei nostri imprenditori, per le maggiori informazioni aggiornate visitare il sito www.facebook.com / communitystandards".

Derkaoui ha trovato il suo lavoro attraverso la società di outsourcing oDesk con base in California, che fornisce servizi di moderazione dei contenuti sia per Google e Facebook. Dopo una prova scritta ed un colloquio, è stato invitato a far parte di un team di oDesk di circa 50 persone provenienti da tutto il terzo mondo - Turchia, Filippine, Messico, India, lavorando per moderare i contenuti Facebook. Essi lavorano da casa, in turni di 4 ore e guadagnano $ 1 per ora più le commissioni (che, secondo l'annuncio di lavoro, dovrebbero aggiungere fino a un tasso di "target" di circa $ 4 per ora).

oDeskStandards


L'offerta di lavoro non ha fatto menzione di Facebook, e Derkaoui ha detto che i dirigenti di oDesk non hanno mai esplicitamente detto chi fosse il cliente. Facebook tiene segreto il contenuto su come avvengono le moderazioni, e come la società esita a portare l'attenzione al torrente del contenuto orribile che sta cercando di controllare. Altri ex moderatori con cui Gawker ha parlato hanno detto che avevano firmato rigorosi accordi di non divulgazione con oDesk. Uno addirittura ha rifiutato di parlare con Gawker perché credevano che si trattasse di un dipendente mascherato di Facebook che stesse cercando di testarlo.

Tuttavia, un portavoce di Facebook ha confermato che erano i client di oDesk. "Nel tentativo di elaborare rapidamente ed efficacemente i milioni di rapporti che riceviamo ogni giorno, abbiamo trovato utile contrarre terze parti per fornire la classificazione precursora di una piccola percentuale di contenuti segnalati", ha detto in un comunicato. "Queste imprese sono soggette a rigorosi controlli di qualità e abbiamo messo in atto da diversi strati di salvaguardia per proteggere i dati di coloro che utilizzando il nostro servizio".

Derkaoui, che ora lavora come content manager regionale per il tech Zenoradio con sede a New York, non ce l'ha fatta a completare il processo di formazione di oDesk. Ha mancato un test cruciale perché vi era Ramadan e mai raggiunto. Ma le interviste a Skype con una serie di altri ex membri del team offrono un quadro dello strano lavoro di un moderatore sui contenuti, il lavoro prototipo del boom dei social media.

Gli ex moderatori con cui Gawker ha parlato provenivano da paesi in Asia, Africa e America Centrale. Erano giovani e ben istruiti, che non sorprende considerando la loro conoscenza della lingua inglese. Si stanno applicando a scuola per studiare scienze politiche negli Stati Uniti il ​​prossimo anno, un altro è attualmente in un programma di ingegneria. Per loro, la moderazione dei contenuti di Facebook era un modo per fare soldi da un lato con alcuni turni di quattro ore alla settimana. Molti avevano fatto altri lavori attraverso oDesk, come ad esempio lavorare come assistente virtuale.

Come Derkaoui, la maggior parte ha convenuto che la retribuzione è modesta, pur riconoscendo che è tipico di quel tipo di lavoro disponibile su oDesk. Derkaoui era l'unico che ha citato il denaro come motivo per smettere. Gli altri sembravano più colpiti dalle ore che avevano passato nel guardare il lato oscuro di Facebook. "Pensa come che ci sia un canale di fogna", un moderatore ha spiegato durante una chat Skype recente, "e tutto il disordine / sporcizia / rifiuti / m**da del mondo, il flusso verso di voi e dobbiamo pulire."

Ogni moderatore sembrava trovare un genere diverso di contenuto offensivo particolarmente stridente. Uno è stato scosso da video di maltrattamento di animali. ("Una coppia al giorno", ha detto) per un altro, è stato il razzismo: "Faresti KKK a saltar fuori ovunque". Un altro si lamentava dei video violenti di combattimenti di "un uomo cattivo, batte un altro". Un moderatore è durato solo tre settimane prima di dovere smettere. "Pedofilia, necrofilia, decapitazioni, suicidi, etc.", ha ricordato. "Ho lasciato [perché] Apprezzo la mia sanità mentale".

Alcune aziende hanno riconosciuto il peso mentale della moderazione dei contenuti e hanno cominciato a fornire una consulenza psicologica per i lavoratori. Ma i moderatori hanno detto che l'ex oDesk aveva semplicemente avvertito che il loro lavoro sarebbe stato grafico. "Loro hanno detto che il lavoro non era per la luce del cuore prima di assumermi", ha detto il moderatore che ha lasciato dopo tre settimane. "Penso che sia in ultima analisi colpa mia per aver sottovalutato proprio come sarebbe stato inquietante".

Nessun commento:

Posta un commento