Visualizzazione post con etichetta Facebook censura. Mostra tutti i post
Visualizzazione post con etichetta Facebook censura. Mostra tutti i post

Facebook blocca i commenti ritenuti spam dal sistema non per censura


Il sistema automatizzato del filtro anti-spam di Facebook, avrebbe portato al blocco di un commento del blogger Robert Scoble - noto appassionato di tecnologia - e di alcuni altri commentatori, secondo un portavoce dell'azienda. Agli utenti che hanno tentato di commentare il post sul blog gli è stato recentemente impedito di farlo, con il testo di avviso da parte della società che "questo commento non può essere pubblicato" perché è "irrilevante o inappropriato". Josh Constine di Techcrunch ha sentito Facebook, la quale afferma che l'intenzione è quella di bloccare i commentatori di spam o abusivi.

Il commento Scoble è stato specificamente bloccato a causa della sua lunghezza, e la lunghezza del thread che vi era su. Le discussioni lunghe e popolari sono particolarmente attraenti per gli spammer in quanto forniscono la più grande distribuzione di qualsiasi contenuto che è spam. Facebook può anche bloccare altri tipi di commenti che vanno contro la conversazione positiva, come qualche ASCII artistico. Altri fattori possono comprendere con chi si sta commentando, per quanto tempo si commento, e cosa si sta commentando. Il sentimeno non viene preso in considerazione.

La formulazione in realtà è un pò confusa, i commenti come "irrilevanti o inappropriati" sono un giudizio soggettivo che potrebbe applicarsi a molti argomenti. Ma questo non sembra essere una sorta di filtro dei contenuti che Facebook possa applicare su specifici contenuti politici al fine di ottenere l'approvazione per operare in alcuni paesi come la Cina. Ecco l'errore Scoble ha ricevuto quando ha tentato di commentare:

"This comment seems irrelevant or inappropriate and can’t be posted. To avoid having your comments blocked, please make sure they contribute to the post in a positive way." (Questo commento appare irrilevante o inappropriato e non può essere pubblicato. Per evitare che i tuoi commenti vengano bloccati, si prega di assicurarsi che essi contribuiscano in una via positiva.)"


Gli algoritmi di Facebook per i commenti fatti sul post di utenti verificati sono apparentemente molto più esigenti perché chiunque può rispondere ad un messaggio pubblico su Facebook. Un portavoce delle policy di Facebook ha inviato via e-mail la seguente spiegazione:

"Per proteggere i milioni di persone che si connettono e condividono su Facebook ogni giorno, abbiamo sistemi automatizzati che lavorano in background per mantenere un ambiente di fiducia e per proteggere i nostri utenti da cattivi attori che spesso usano i collegamenti per diffondere spam e malware. Questi sistemi sono così efficaci che la maggior parte delle persone che usano Facebook non incontreranno mai spam. Non siamo perfetti, però, e in rari casi fanno errori. Questo commento è stato erroneamente bloccato come spam, e abbiamo già iniziato ad apportare modifiche al nostro classificatore. Ci auguriamo di poter imparare da rari casi come questi per essere sicuri di non ripetere lo stesso errore in futuro. Per maggiori informazioni sui nostri sistemi di prevenzione dello spam, si prega di vedere questo blog post [Facebook Spam Prevention System ndr]. Di seguito il commento in questione:

"I'm so glad I didn't start a media business. It's actually really tough to get new and interesting stories and to avoid falling into drama. People forget that Techcrunch was built step-by-step as a new publishing form was taking shape. PandoDaily doesn't have that advantage and, is, indeed, facing competition from social networks that is quite good indeed.

I no longer visit blogs. I watch Twitter, Google+, and Facebook, along with Hacker News, Techmeme, Quora. These are the new news sources.

Plus, Pando Daily actually doesn't have enough capital to compete head on with, say, D: All Things Digital or The Verge, both of which are expanding quickly and have ecosystems behind them.

-----------------------------------------------------------
I'm reposting as a way to test something."


Robert Globe spiega i motivi per cui Facebook ha bloccato il suo commento, direttamente dal profilo su Google+: "Ho appena parlato con Facebook PR della mia questione sulla censura del commento censura. Dicono che ciò che è effettivamente accaduto è che il mio commento è stato classificato come spam. Più ulteriormente ha detto che questo è stato un 'falso positivo', perché il mio commento non è uno che Facebook desidera bloccare. È venuto fuori che il mio commento è stato bloccato dai filtri di Facebook che classificano come spam e che non è stato bloccato per quello che dice il commento, ma piuttosto a causa di qualcosa di unico in quel messaggio. Stanno cercando di capire di più e mi permetteranno di conoscere più tardi, dopo che capiscono che cosa lo ha innescato. La loro tesi è che il mio commento ha innescato il blocco per alcuni motivi:

  1. Sono sottoscritto a @max.woolf https://www.facebook.com/max.woolf e non sono un suo amico nel sistema. Ciò significa che il sistema di classificazione dello spam tratta i commenti più severamente se eravamo amici.
  2. Il mio commento comprende tre collegamenti @. Questo è probabilmente ciò che ha attivato il sistema di classificazione dello spam.
  3. Non vi potrebbero essere altre cose nell commento che abbiano attivato il sistema di spam."

Il funzionario PR di Facebook ha detto che il sistema di classificazione dello spam ha tonnellate di algoritmi che cercano di impedire di postare commenti di basso valore, in particolare agli account pubblici (le persone che hanno attivato gli abbonamenti su Facebook). La persona PR di Facebook ha anche detto che una squadra sta studiando perché questo messaggio è un falso positivo, e regolerà gli algoritmi in modo da non contrassegnarli come spam. Inoltre, il messaggio è stato bloccato a causa del contenuto del messaggio, non perché sembrava spam.

Rivelati i documenti interni di Facebook sulla censura dei contenuti


Il marocchino Amine Derkaoui, 21 anni marocchino, è furibondo con Facebook. L'anno scorso ha trascorso una formazione di poche settimane per esaminare i contenuti illeciti su Facebook attraverso una società di outsourcing, per la quale è stato pagato un misero 1 dollaro l'ora. Ed è ancora fumante per questo. "E' umiliante. Sono solo sfruttamenti da terzo mondo", Derkaoui ha lamentato con un forte accento francese, su Skype a poche settimane dal record di Facebook che ha depositato 100 miliardi dollari Ipo.

Come una sorta di payback (conto in sospeso), Derkaoui ha fornito a Gawker alcuni documenti interni, che gettano luce su come Facebook esattamente censura il contenuto buio che non desidera vedere, e le persone il cui compito è quello di assicurarsi che ciò avvenga. Facebook cerca di mantiene l'ambiente pulito da porno, violenze, razzismo, bullismo, grazie al lavoro di un piccolo esercito di moderatori di contenuti umani come Derkaoui. "Lavoriamo per promuovere un ambiente in cui tutti possono discutere apertamente i problemi e di esprimere le proprie opinioni, rispettando nel contempo i diritti degli altri", si legge nelle norme comunitarie di Facebook.

Ma camminare sul confine tra mantenere pulito Facebook e censurare eccessivamente i suoi contenuti è difficile, e lo zelo di Facebook nel lavaggio dei contenuti degli utenti ha portato a una serie di tumulti. Lo scorso aprile, hanno eliminato un innocente bacio gay e sono stati accusati di omofobia, pochi mesi prima, la rimozione di un disegno del nudo ha scatenato ire del mondo dell'arte. Più di recente, arrabbiati "lactivists" hanno inscenato proteste sulla cancellazione su Facebook delle foto di una mamma che allatta il proprio bimbo.

Questi scandali di censura non hanno aiutato all'opacità di Facebook riguardo il suo processo di moderazione dei contenuti. Ogni volta che Facebook cancella l'immagine che ritiene discutibile, rimanda l'utente in questione alla sua vagante Dichiarazione dei diritti e delle responsabilità. Questa politica è vaga quando si tratta di moderazione dei contenuti, e probabilmente è intenzionalmente così. Se gli utenti sapessero esattamente quali criteri sono stati utilizzati per giudicare il loro contenuto, sarebbe chiaro il motivo per cui Facebook abbia scelta di censurare in base alle sue politiche, e non si tratterebbe di una censura arbitraria.

Derkaoui ha fornito a Gawker una copia delle linee guida specifiche sorprendenti sui dettami di Facebook ai moderatori dei contenuti. Il primo sguardo del pubblico è esattamente ciò che Facebook considera al di là del pallido, e quali sono i contenuti abbozzati che non permetteranno di pubblicare video, immagini e messaggi in bacheca. Il documento è essenzialmente una mappa del terreno morale di Facebook.

Il contenuto di moderazione della squadra Derkaoui utilizza un strumento basato sul Web per visualizzare un flusso di immagini, video e messaggi in bacheca che sono stati segnalati dagli utenti. Per cancellare il contenuto essi confermano col flag, unconfirm permette di mantenersi, o ad aumentare a un livello superiore di moderazione, che rimanda il contenuto in questione ai dipendenti di Facebook.


A una pagina cheat sheet del manuale di 17 pagine si delinea esattamente ciò che deve essere confermato e cancellato dal team. (Il cheat sheet è visibile a sinistra;. Il documento completo può essere visto sotto). E' diviso in categorie come "Scene di sesso e nudo", "Contenuti di odio", "Contentuti grafici" e "Bullismo e molestie". Il documento è aggiornato al mese scorso. Facebook, a quanto pare, eliminara roba abbastanza tranquilla. Ad esempio, uno dei seguenti contenuti verrà eliminato, secondo gli orientamenti:
  • Sfacciata (ovvia) rappresentazione delle dita dei piedi cammello e nocche delle alci.
  • Madri che allattano, senza vestiti addosso.
  • Giocattoli sexy o altri oggetti, ma solo nel contesto di attività sessuale.
  • Raffigurazioni fetish sessuali in qualsiasi forma.
  • Tutte le immagini manipolate di persone, se negative, positive o neutre.
  • Immagini di gente ubriaca e senza coscenza, o persone che dormono con delle cose disegnate sulla loro faccia.
  • Discorsi violenti (Esempio: "A me piace sentire crepare le teste.").
Quando si tratta di sesso e nudità, Facebook lo scrive strettamente alla pagina 13, secondo le linee guida. Ovviamente l'attività sessuale, anche vestita, viene eliminata, così come lo sono "parti private nude dei capezzoli femminili tra cui rigonfiamenti e natiche nude." Ma "i capezzoli maschili sono OK."Il Foreplay non è permesso", anche per persone dello stesso sesso (uomini-uomini/donne-donne)". Anche i gay che si baciano su Facebook.

Facebook è più indulgente quando si tratta di violenza. Le immagini cruente non sono consentite, come le viscere di qualcuno che a lungo sono fuoriusciti. Ma le "Teste schiacciate, arti ecc. vanno bene fintanto che non stanno mostrando gli interni", recita una guida. "Ferite profonde della carne sono ok per mostrarli, il sangue eccessivo è ok da mostrare". Le droghe sono un sacchetto mix. Immagini di marijuana sono esplicitamente consentiti, anche se le immagini di altre droghe illegali "non nel contesto di studio medico, accademico o scientifico" sono soppresse. Finché non compare che siete un rivenditore, è possibile postare le immagini più volte dei vostri nascondigli come si desidera.

Nei "Contenuti di odio", le linee guida specificamente vietano "Foto contro... foto a confronto con due persone fianco a fianco" che sono ironiche, senza considerare che è stato il primo successo di Mark Zuckerberg, il FaceSmash e classificato come attrattiva delle studentesse di Harvard. Alcuni tipi di contenuto vengono giudicati fortemente dal contesto. Ad esempio, i video di lotta scolastici vengono eliminati solo se "il video è stato inviato per continuare tormentare la persona presa di mira nel video". L'incitamento all'odio è consentito nel caso di uno scherzo, gli abusi sugli animali e video possono rimanere solo se è chiaro che l'utente non ha approvato.

Facebook ha lottato con la questione dell'aborto. Il mese scorso, un post che offre istruzioni sull'aborto fai da te era stato "accidentalmente" cancellato dalla pagina di un olandese attivista per i diritti riproduttivi. Sostenitori anti-abortisti a volte si lamentano che Facebook censura le loro immagini grafiche di feti abortiti. Mentre le linee guida non fanno menzione dell'aborto, una discussione in un forum utilizzato da Facebook con i contenuti moderati che Derkaoui ha mostrato a Gawker mettono in luce la politica sull'aborto di Facebook. Il moderatore scrive:

"L'aborto in tutte le sue forme è consentito di essere rappresentato, a meno che non viola la violenza grafica o immagini di nudo standard. Ciò significa che gli utenti possono mostrare le immagini così come parlare di aborto, discutere, ecc. E' solo una violazione se il contenuto grafico, ad esempio lo smembramento o la decapitazione è mostrata, o se gli interni sono visibili".

Alcuni contenuti devono essere sottoposti a un livello superiore di revisione. Ciò include minacce credibili contro persone o personaggi pubblici, contenuti suicida, e incoraggiamenti a commettere crimini. Forse la cosa più intrigante è la categoria dedicata alla "compliance internazionale". In questa categoria, qualsiasi negazione dell'Olocausto, che "si concentra sul discorso di odio", tutti gli attacchi contro il fondatore della Turchia, Ataturk, e la masterizzazione di bandiere turche deve essere intensificato. È probabile che per mantenere Facebook in linea con le leggi internazionali, in molti paesi europei, la negazione dell'Olocausto è fuorilegge, così come gli attacchi contro Ataturk in Turchia.

Un portavoce di Facebook ha detto a Gawker in una dichiarazione che il documento "fornisce una panoramica in tempo dei nostri standard per quanto riguarda [] uno dei nostri imprenditori, per le maggiori informazioni aggiornate visitare il sito www.facebook.com / communitystandards".

Derkaoui ha trovato il suo lavoro attraverso la società di outsourcing oDesk con base in California, che fornisce servizi di moderazione dei contenuti sia per Google e Facebook. Dopo una prova scritta ed un colloquio, è stato invitato a far parte di un team di oDesk di circa 50 persone provenienti da tutto il terzo mondo - Turchia, Filippine, Messico, India, lavorando per moderare i contenuti Facebook. Essi lavorano da casa, in turni di 4 ore e guadagnano $ 1 per ora più le commissioni (che, secondo l'annuncio di lavoro, dovrebbero aggiungere fino a un tasso di "target" di circa $ 4 per ora).

oDeskStandards


L'offerta di lavoro non ha fatto menzione di Facebook, e Derkaoui ha detto che i dirigenti di oDesk non hanno mai esplicitamente detto chi fosse il cliente. Facebook tiene segreto il contenuto su come avvengono le moderazioni, e come la società esita a portare l'attenzione al torrente del contenuto orribile che sta cercando di controllare. Altri ex moderatori con cui Gawker ha parlato hanno detto che avevano firmato rigorosi accordi di non divulgazione con oDesk. Uno addirittura ha rifiutato di parlare con Gawker perché credevano che si trattasse di un dipendente mascherato di Facebook che stesse cercando di testarlo.

Tuttavia, un portavoce di Facebook ha confermato che erano i client di oDesk. "Nel tentativo di elaborare rapidamente ed efficacemente i milioni di rapporti che riceviamo ogni giorno, abbiamo trovato utile contrarre terze parti per fornire la classificazione precursora di una piccola percentuale di contenuti segnalati", ha detto in un comunicato. "Queste imprese sono soggette a rigorosi controlli di qualità e abbiamo messo in atto da diversi strati di salvaguardia per proteggere i dati di coloro che utilizzando il nostro servizio".

Derkaoui, che ora lavora come content manager regionale per il tech Zenoradio con sede a New York, non ce l'ha fatta a completare il processo di formazione di oDesk. Ha mancato un test cruciale perché vi era Ramadan e mai raggiunto. Ma le interviste a Skype con una serie di altri ex membri del team offrono un quadro dello strano lavoro di un moderatore sui contenuti, il lavoro prototipo del boom dei social media.

Gli ex moderatori con cui Gawker ha parlato provenivano da paesi in Asia, Africa e America Centrale. Erano giovani e ben istruiti, che non sorprende considerando la loro conoscenza della lingua inglese. Si stanno applicando a scuola per studiare scienze politiche negli Stati Uniti il ​​prossimo anno, un altro è attualmente in un programma di ingegneria. Per loro, la moderazione dei contenuti di Facebook era un modo per fare soldi da un lato con alcuni turni di quattro ore alla settimana. Molti avevano fatto altri lavori attraverso oDesk, come ad esempio lavorare come assistente virtuale.

Come Derkaoui, la maggior parte ha convenuto che la retribuzione è modesta, pur riconoscendo che è tipico di quel tipo di lavoro disponibile su oDesk. Derkaoui era l'unico che ha citato il denaro come motivo per smettere. Gli altri sembravano più colpiti dalle ore che avevano passato nel guardare il lato oscuro di Facebook. "Pensa come che ci sia un canale di fogna", un moderatore ha spiegato durante una chat Skype recente, "e tutto il disordine / sporcizia / rifiuti / m**da del mondo, il flusso verso di voi e dobbiamo pulire."

Ogni moderatore sembrava trovare un genere diverso di contenuto offensivo particolarmente stridente. Uno è stato scosso da video di maltrattamento di animali. ("Una coppia al giorno", ha detto) per un altro, è stato il razzismo: "Faresti KKK a saltar fuori ovunque". Un altro si lamentava dei video violenti di combattimenti di "un uomo cattivo, batte un altro". Un moderatore è durato solo tre settimane prima di dovere smettere. "Pedofilia, necrofilia, decapitazioni, suicidi, etc.", ha ricordato. "Ho lasciato [perché] Apprezzo la mia sanità mentale".

Alcune aziende hanno riconosciuto il peso mentale della moderazione dei contenuti e hanno cominciato a fornire una consulenza psicologica per i lavoratori. Ma i moderatori hanno detto che l'ex oDesk aveva semplicemente avvertito che il loro lavoro sarebbe stato grafico. "Loro hanno detto che il lavoro non era per la luce del cuore prima di assumermi", ha detto il moderatore che ha lasciato dopo tre settimane. "Penso che sia in ultima analisi colpa mia per aver sottovalutato proprio come sarebbe stato inquietante".

Facebook Spam Prevention Systems, come funziona il sistema antispam


Facebook spiega il funzionamento del suo sistema antispam, denominato Spam Prevention Systems. "Come un servizio globale di collegamento di 400 milioni di persone, Facebook ha contribuito a costruire ed estendere le comunità di tutto il mondo. Come in ogni comunità, i benefici di avvicinare le persone sono a volte accompagnati da un comportamento inappropriato o inaccettabile da un numero ristretto di persone. Questo comportamento varia da sconsiderato al criminale e può degradare l'esperienza per gli altri o minare la comunità stessa. Su Facebook, il comportamento più diffuso inaccettabile comporta un certo abuso dei nostri strumenti di comunicazione", si legge in un post sul blog.

Questo comportamento innocente possono essere fastidioso per gli altri, come troppi messaggi o richieste di amicizia o deliberatamente grave cercando di spammare o per altri per fini di lucro. Facebook prende questi attacchi di spam deliberati seriamente e dedica una quantità enorme del tempo dei suoi ingegneri per costruire sistemi che rilevano attività sospette e automaticamente avvertono la popolazione sui comportamenti inappropriati o collegamenti. Grazie ai suoi sforzi, solo una piccola percentuale di persone che usano Facebook ha mai sperimentato spam o un problema di sicurezza. A volte, però, le persone fraintendono uno di questi sistemi.

Essi credono erroneamente che Facebook sta limitando il discorso perché gli ha bloccato la pubblicazione di un link specifico o di inviare un messaggio a qualcuno che non è un amico. Nel corso degli anni, queste incomprensioni hanno accusato ingiustamente Facebook di censurare delle discussioni, come quelle relative al regista Roman Polanski. Per cercare di essere più trasparente, Facebook ha lavorato per migliorare i suoi avvisi e renderli più chiari. Facebook ha deciso così di spiegare più in dettaglio come funzionano i suoi sistemi antispam. Con miliardi di pezzi di contenuti che vengono condivisi su Facebook ogni mese e gli attori cattivi costantemente rivolti alle persone che usano Facebook, evitare lo spam non è facile.

"Come la comunità si affida ai cittadini per segnalare il crimine, contiamo su di voi per farci sapere quando si incontra spam, che può essere qualsiasi cosa, da una richiesta di amicizia inviata da qualcuno che non si conosce fino a un messaggio che include un collegamento a un sito web malevolo. Utilizzando le informazioni dai vostri rapporti e ciò che sappiamo su come la persona mediamente utilizza Facebook, abbiamo individuato alcuni modelli comuni di comportamento inaccettabile", spiega Facebook. Per esempio, Facebook ha imparato che se qualcuno invia lo stesso messaggio a 50 persone non in lista dei suoi amici nel giro di un'ora, di solito è spam.


Allo stesso modo, se il 75% delle richieste di amicizia di una persona inviate vengono ignorate, è molto probabile che tale persona per gli altri sia fastidiosa e non si conosce. Facebook non può condividere tutti i dettagli su come questi sistemi funzionano per non far troavre agli spammer il sistema di aggirare i filtri. Tuttavia, essi sono progettati per rilevare automaticamente comportamenti sospetti, bloccare e mettere in guardia la persona in modo da rallentare il suo comportamento. In casi estremi in cui il problema persiste nonostante gli avvertimenti di Facebook,  è possibile che venga disattivato l'account della persona.

Quando questo accade, di solito il resoconto di una persona non è del tutto falso, ma un account vero e proprio può essere stato compromesso. Gli account compromessi sono messi in un processo per dare il controllo al legittimo proprietario. In tutti gli altri casi, Facebook dà sempre alla persona la possibilità di impugnare la decisione contattandolo. Facebook quindi esamina l'account e lo riattiva se si determina che la persona non ha violato la sua Dichiarazione dei diritti e delle responsabilità. Per ulteriori informazioni sugli avvisi di Facebook, controllate la pagina sul Centro assistenza. Questi sistemi automatizzati non solo prevengono lo spam e altre seccature. Essi proteggono anche contro siti Web pericolosi che danneggiano il computer o tentano di rubare le vostre informazioni.

Quando Facebook viene avvisato su uno di questi siti, lo aggiunge immediatamente a un elenco di blocco ed evita che il post bacheca o i messaggi possano puntare ad esso. Facebook fornisce anche alla persona che sta tentando di condividere il link una spiegazione del perché è bloccato e un modo per correggere se il sistema si sta sbagliando. A volte, gli spammer cercano di nascondere i loro link malevoli dietro shorteners URL come Tiny URL o bit.ly , e in rari casi, si possono bloccare temporaneamente tutti gli usi di un shortener specifico. Se si colpisce un blocco, mentre si sta utilizzando un URL shortener, è possibile utilizzarne uno diverso o semplicemente o l'URL originale per quello che si sta cercando di condividere.

Questi sistemi sono così efficaci da lavorare in background che la maggior parte delle persone che usano Facebook non potranno mai incontrare uno. "Non siamo perfetti, però, - continua Facebook - e stiamo sempre lavorando per migliorarli. Facciamo questo in modo attivo dal monitoraggio di appelli e imparando dai rari casi in cui facciamo errori. Se vi imbattete in uno dei nostri sistemi di prevenzione spam, dovete ricordare che il suo unico intento è quello di proteggere voi e mantenere l'ambiente di fiducia di Facebook". Scritto da Caroline Ghiossi, un socio del team di Facebook per le operazioni dell'utente, che sta combattendo spam.