Visualizzazione post con etichetta Documenti. Mostra tutti i post
Visualizzazione post con etichetta Documenti. Mostra tutti i post

Symantec scopre Regin: sofisticato malware spia in azione dal 2008


Uno strumento di spionaggio avanzato, Regin mostra un grado di competenza tecnica rara ed è stato utilizzato in operazioni di spionaggio contro governi, operatori di infrastrutture, aziende, ricercatori e privati. Lo ha scoperto nei mesi scorsi la società specializzata in sicurezza Symantec. Un pezzo avanzato di malware noto come Regin, è stato utilizzato in campagne sistematiche di spionaggio contro una serie di obiettivi internazionali almeno dal 2008. Una backdoor di tipo Trojan, Regin è un pezzo complesso di malware la cui struttura mostra un grado di competenza tecnica vista raramente.

Internet: arriva la Carta dei diritti, aperta la consultazione ai cittadini


Da ieri sul sito della Camera dei Deputati e anche nella piattaforma dei Media Civici, è disponibile la prima bozza pubblica di un documento intitolato: "Dichiarazione dei diritti in Internet". La carta reso pubblica è la prima proposta di "Internet Bill of Rights" proveniente da un Parlamento nazionale. L'idea nasce da un'importante considerazione su Internet, che non può essere ridotto solamente al ruolo di "media". Il documento è composto da un preambolo e da 14 articoli, prodotto dalla Commissione di studio voluta dalla presidente della Camera Laura Boldrini, per i diritti e i doveri in Internet.

Ransomware Polizia: software preconfenzionato e legami con altro virus


Un'applicazione ransomware che blocca i computer e chiede ai loro proprietari di pagare multe con l'accusa di aver violato diverse leggi attraverso la loro attività online. Sono stati i ricercatori di Trend Micro ad analizzare questo particolare ransomware - malware che disabilita la funzionalità del sistema e chiede soldi per il ripristino - e a fare riferimento al cavallo di Troia della polizia, ​​perché visualizza falsi messaggi che dichiarano di provenire da forze dell'ordine.

Rivelati i documenti interni di Facebook sulla censura dei contenuti


Il marocchino Amine Derkaoui, 21 anni marocchino, è furibondo con Facebook. L'anno scorso ha trascorso una formazione di poche settimane per esaminare i contenuti illeciti su Facebook attraverso una società di outsourcing, per la quale è stato pagato un misero 1 dollaro l'ora. Ed è ancora fumante per questo. "E' umiliante. Sono solo sfruttamenti da terzo mondo", Derkaoui ha lamentato con un forte accento francese, su Skype a poche settimane dal record di Facebook che ha depositato 100 miliardi dollari Ipo.

Come una sorta di payback (conto in sospeso), Derkaoui ha fornito a Gawker alcuni documenti interni, che gettano luce su come Facebook esattamente censura il contenuto buio che non desidera vedere, e le persone il cui compito è quello di assicurarsi che ciò avvenga. Facebook cerca di mantiene l'ambiente pulito da porno, violenze, razzismo, bullismo, grazie al lavoro di un piccolo esercito di moderatori di contenuti umani come Derkaoui. "Lavoriamo per promuovere un ambiente in cui tutti possono discutere apertamente i problemi e di esprimere le proprie opinioni, rispettando nel contempo i diritti degli altri", si legge nelle norme comunitarie di Facebook.

Ma camminare sul confine tra mantenere pulito Facebook e censurare eccessivamente i suoi contenuti è difficile, e lo zelo di Facebook nel lavaggio dei contenuti degli utenti ha portato a una serie di tumulti. Lo scorso aprile, hanno eliminato un innocente bacio gay e sono stati accusati di omofobia, pochi mesi prima, la rimozione di un disegno del nudo ha scatenato ire del mondo dell'arte. Più di recente, arrabbiati "lactivists" hanno inscenato proteste sulla cancellazione su Facebook delle foto di una mamma che allatta il proprio bimbo.

Questi scandali di censura non hanno aiutato all'opacità di Facebook riguardo il suo processo di moderazione dei contenuti. Ogni volta che Facebook cancella l'immagine che ritiene discutibile, rimanda l'utente in questione alla sua vagante Dichiarazione dei diritti e delle responsabilità. Questa politica è vaga quando si tratta di moderazione dei contenuti, e probabilmente è intenzionalmente così. Se gli utenti sapessero esattamente quali criteri sono stati utilizzati per giudicare il loro contenuto, sarebbe chiaro il motivo per cui Facebook abbia scelta di censurare in base alle sue politiche, e non si tratterebbe di una censura arbitraria.

Derkaoui ha fornito a Gawker una copia delle linee guida specifiche sorprendenti sui dettami di Facebook ai moderatori dei contenuti. Il primo sguardo del pubblico è esattamente ciò che Facebook considera al di là del pallido, e quali sono i contenuti abbozzati che non permetteranno di pubblicare video, immagini e messaggi in bacheca. Il documento è essenzialmente una mappa del terreno morale di Facebook.

Il contenuto di moderazione della squadra Derkaoui utilizza un strumento basato sul Web per visualizzare un flusso di immagini, video e messaggi in bacheca che sono stati segnalati dagli utenti. Per cancellare il contenuto essi confermano col flag, unconfirm permette di mantenersi, o ad aumentare a un livello superiore di moderazione, che rimanda il contenuto in questione ai dipendenti di Facebook.


A una pagina cheat sheet del manuale di 17 pagine si delinea esattamente ciò che deve essere confermato e cancellato dal team. (Il cheat sheet è visibile a sinistra;. Il documento completo può essere visto sotto). E' diviso in categorie come "Scene di sesso e nudo", "Contenuti di odio", "Contentuti grafici" e "Bullismo e molestie". Il documento è aggiornato al mese scorso. Facebook, a quanto pare, eliminara roba abbastanza tranquilla. Ad esempio, uno dei seguenti contenuti verrà eliminato, secondo gli orientamenti:
  • Sfacciata (ovvia) rappresentazione delle dita dei piedi cammello e nocche delle alci.
  • Madri che allattano, senza vestiti addosso.
  • Giocattoli sexy o altri oggetti, ma solo nel contesto di attività sessuale.
  • Raffigurazioni fetish sessuali in qualsiasi forma.
  • Tutte le immagini manipolate di persone, se negative, positive o neutre.
  • Immagini di gente ubriaca e senza coscenza, o persone che dormono con delle cose disegnate sulla loro faccia.
  • Discorsi violenti (Esempio: "A me piace sentire crepare le teste.").
Quando si tratta di sesso e nudità, Facebook lo scrive strettamente alla pagina 13, secondo le linee guida. Ovviamente l'attività sessuale, anche vestita, viene eliminata, così come lo sono "parti private nude dei capezzoli femminili tra cui rigonfiamenti e natiche nude." Ma "i capezzoli maschili sono OK."Il Foreplay non è permesso", anche per persone dello stesso sesso (uomini-uomini/donne-donne)". Anche i gay che si baciano su Facebook.

Facebook è più indulgente quando si tratta di violenza. Le immagini cruente non sono consentite, come le viscere di qualcuno che a lungo sono fuoriusciti. Ma le "Teste schiacciate, arti ecc. vanno bene fintanto che non stanno mostrando gli interni", recita una guida. "Ferite profonde della carne sono ok per mostrarli, il sangue eccessivo è ok da mostrare". Le droghe sono un sacchetto mix. Immagini di marijuana sono esplicitamente consentiti, anche se le immagini di altre droghe illegali "non nel contesto di studio medico, accademico o scientifico" sono soppresse. Finché non compare che siete un rivenditore, è possibile postare le immagini più volte dei vostri nascondigli come si desidera.

Nei "Contenuti di odio", le linee guida specificamente vietano "Foto contro... foto a confronto con due persone fianco a fianco" che sono ironiche, senza considerare che è stato il primo successo di Mark Zuckerberg, il FaceSmash e classificato come attrattiva delle studentesse di Harvard. Alcuni tipi di contenuto vengono giudicati fortemente dal contesto. Ad esempio, i video di lotta scolastici vengono eliminati solo se "il video è stato inviato per continuare tormentare la persona presa di mira nel video". L'incitamento all'odio è consentito nel caso di uno scherzo, gli abusi sugli animali e video possono rimanere solo se è chiaro che l'utente non ha approvato.

Facebook ha lottato con la questione dell'aborto. Il mese scorso, un post che offre istruzioni sull'aborto fai da te era stato "accidentalmente" cancellato dalla pagina di un olandese attivista per i diritti riproduttivi. Sostenitori anti-abortisti a volte si lamentano che Facebook censura le loro immagini grafiche di feti abortiti. Mentre le linee guida non fanno menzione dell'aborto, una discussione in un forum utilizzato da Facebook con i contenuti moderati che Derkaoui ha mostrato a Gawker mettono in luce la politica sull'aborto di Facebook. Il moderatore scrive:

"L'aborto in tutte le sue forme è consentito di essere rappresentato, a meno che non viola la violenza grafica o immagini di nudo standard. Ciò significa che gli utenti possono mostrare le immagini così come parlare di aborto, discutere, ecc. E' solo una violazione se il contenuto grafico, ad esempio lo smembramento o la decapitazione è mostrata, o se gli interni sono visibili".

Alcuni contenuti devono essere sottoposti a un livello superiore di revisione. Ciò include minacce credibili contro persone o personaggi pubblici, contenuti suicida, e incoraggiamenti a commettere crimini. Forse la cosa più intrigante è la categoria dedicata alla "compliance internazionale". In questa categoria, qualsiasi negazione dell'Olocausto, che "si concentra sul discorso di odio", tutti gli attacchi contro il fondatore della Turchia, Ataturk, e la masterizzazione di bandiere turche deve essere intensificato. È probabile che per mantenere Facebook in linea con le leggi internazionali, in molti paesi europei, la negazione dell'Olocausto è fuorilegge, così come gli attacchi contro Ataturk in Turchia.

Un portavoce di Facebook ha detto a Gawker in una dichiarazione che il documento "fornisce una panoramica in tempo dei nostri standard per quanto riguarda [] uno dei nostri imprenditori, per le maggiori informazioni aggiornate visitare il sito www.facebook.com / communitystandards".

Derkaoui ha trovato il suo lavoro attraverso la società di outsourcing oDesk con base in California, che fornisce servizi di moderazione dei contenuti sia per Google e Facebook. Dopo una prova scritta ed un colloquio, è stato invitato a far parte di un team di oDesk di circa 50 persone provenienti da tutto il terzo mondo - Turchia, Filippine, Messico, India, lavorando per moderare i contenuti Facebook. Essi lavorano da casa, in turni di 4 ore e guadagnano $ 1 per ora più le commissioni (che, secondo l'annuncio di lavoro, dovrebbero aggiungere fino a un tasso di "target" di circa $ 4 per ora).

oDeskStandards


L'offerta di lavoro non ha fatto menzione di Facebook, e Derkaoui ha detto che i dirigenti di oDesk non hanno mai esplicitamente detto chi fosse il cliente. Facebook tiene segreto il contenuto su come avvengono le moderazioni, e come la società esita a portare l'attenzione al torrente del contenuto orribile che sta cercando di controllare. Altri ex moderatori con cui Gawker ha parlato hanno detto che avevano firmato rigorosi accordi di non divulgazione con oDesk. Uno addirittura ha rifiutato di parlare con Gawker perché credevano che si trattasse di un dipendente mascherato di Facebook che stesse cercando di testarlo.

Tuttavia, un portavoce di Facebook ha confermato che erano i client di oDesk. "Nel tentativo di elaborare rapidamente ed efficacemente i milioni di rapporti che riceviamo ogni giorno, abbiamo trovato utile contrarre terze parti per fornire la classificazione precursora di una piccola percentuale di contenuti segnalati", ha detto in un comunicato. "Queste imprese sono soggette a rigorosi controlli di qualità e abbiamo messo in atto da diversi strati di salvaguardia per proteggere i dati di coloro che utilizzando il nostro servizio".

Derkaoui, che ora lavora come content manager regionale per il tech Zenoradio con sede a New York, non ce l'ha fatta a completare il processo di formazione di oDesk. Ha mancato un test cruciale perché vi era Ramadan e mai raggiunto. Ma le interviste a Skype con una serie di altri ex membri del team offrono un quadro dello strano lavoro di un moderatore sui contenuti, il lavoro prototipo del boom dei social media.

Gli ex moderatori con cui Gawker ha parlato provenivano da paesi in Asia, Africa e America Centrale. Erano giovani e ben istruiti, che non sorprende considerando la loro conoscenza della lingua inglese. Si stanno applicando a scuola per studiare scienze politiche negli Stati Uniti il ​​prossimo anno, un altro è attualmente in un programma di ingegneria. Per loro, la moderazione dei contenuti di Facebook era un modo per fare soldi da un lato con alcuni turni di quattro ore alla settimana. Molti avevano fatto altri lavori attraverso oDesk, come ad esempio lavorare come assistente virtuale.

Come Derkaoui, la maggior parte ha convenuto che la retribuzione è modesta, pur riconoscendo che è tipico di quel tipo di lavoro disponibile su oDesk. Derkaoui era l'unico che ha citato il denaro come motivo per smettere. Gli altri sembravano più colpiti dalle ore che avevano passato nel guardare il lato oscuro di Facebook. "Pensa come che ci sia un canale di fogna", un moderatore ha spiegato durante una chat Skype recente, "e tutto il disordine / sporcizia / rifiuti / m**da del mondo, il flusso verso di voi e dobbiamo pulire."

Ogni moderatore sembrava trovare un genere diverso di contenuto offensivo particolarmente stridente. Uno è stato scosso da video di maltrattamento di animali. ("Una coppia al giorno", ha detto) per un altro, è stato il razzismo: "Faresti KKK a saltar fuori ovunque". Un altro si lamentava dei video violenti di combattimenti di "un uomo cattivo, batte un altro". Un moderatore è durato solo tre settimane prima di dovere smettere. "Pedofilia, necrofilia, decapitazioni, suicidi, etc.", ha ricordato. "Ho lasciato [perché] Apprezzo la mia sanità mentale".

Alcune aziende hanno riconosciuto il peso mentale della moderazione dei contenuti e hanno cominciato a fornire una consulenza psicologica per i lavoratori. Ma i moderatori hanno detto che l'ex oDesk aveva semplicemente avvertito che il loro lavoro sarebbe stato grafico. "Loro hanno detto che il lavoro non era per la luce del cuore prima di assumermi", ha detto il moderatore che ha lasciato dopo tre settimane. "Penso che sia in ultima analisi colpa mia per aver sottovalutato proprio come sarebbe stato inquietante".

Attacco hacker al Pentagono, nuova strategia cybernetica in USA


Il Dipartimento della Difesa USA ha svelato la sua strategia per difendere le reti dei computer militari e la risposta alle crescenti minacce nel cyberspazio. Il Pentagono si sta allontanando da una difesa passiva delle sue reti di computer per trattare il cyberspazio come un "settore operativo", in cui le forze militari vengono addestrate per difendere contro gli attacchi. In un discorso alla National Defense University di Fort McNair, il sottosegretario alla Difesa William Lynn ha detto che la crescente dipendenza dalle tecnologie informatiche del Pentagono garantisce virtualmente futuri nemici sulle reti di computer per le operazioni militari. "La nostra valutazione è che gli attacchi informatici sarà una componente importante di qualsiasi futuro conflitto, se si tratta di grandi nazioni, gli stati canaglia o gruppi terroristici ", ha detto Lynn. Secondo Lynn esistono oggi  strumenti capaci di interrompere o distruggere le reti critiche causando un danno fisico, per un cambiamento strategico nella sempre pericolosa evoluzione nel cyber spazio. "Come risultato di questa minaccia, la tastiera di un paese può avere un impatto dall'altra parte del globo in un batter d'occhio. Nel 21 ° secolo, bit e byte possono essere una minaccia come proiettili e le bombe", ha proseguito Lynn. Lynn ha rivelato che all'inizio di quest'anno un servizio di intelligence straniero ha rubato 24.000 file di computer da un appaltatore della difesa dello sviluppo di sistemi per l'esercito statunitense, sotto contratto con il Pentagono.

Department of Defense Strategy for Operating in Cyberspace

Guarda gli altri documenti del Dipartimento della Difesa
L'azienda per questo condivide con il ministero della Difesa migliaia di file. Lynn ha detto che vi è uno Stato straniero dietro il furto, ma ha rifiutato di identificare quale paese sia coinvolto. Nel nuovo programma pilota, lo Strategy for Operating in Cyberspace, il Pentagono condivide informazioni classificate di intelligence sulle minacce con un certo numero di aziende per aiutarle a identificare e bloccare le attività sospette. La strategia delineata da Lynn è orientata verso la difensiva piuttosto che misure offensive. "Lungi dalla militarizzazione del cyberspazio, la nostra strategia di protezione delle reti per negare il beneficio di un attacco aiuterà a dissuadere gli operatori militari del cyberspazio da utilizzare a fini ostili", ha detto Lynn. Per Lynn notevoli progressi sono stati fatti lavorando con l'industria privata e le altre agenzie governative per rendere più sicure le infrastrutture critiche. Il sottosegretario alla Difesa ha detto che il Pentagono sta anche lavorando con gli alleati e partner internazionali per costruire le difese informatiche collettive. "Queste difese attive utilizzano sensori, software, e le firme per rilevare e bloccare codici maligni prima che colpiscano le nostre operazioni, negando così il vantaggio di un attacco", ha precisato Lynn. Lynn ha dichiarato che non è chiaro quanto danno ha fatto il furto digitale degli Stati Uniti sulla competitività economica e la sicurezza nazionale, ma ha detto che una stima recente ha stimato perdite cumulative economiche per più di 1 trilione di dollari.

Foto: http://www.wikipedia.org/

Il nuovo sistema Captcha anti-bot di Google search engine è stato crackato



Nonostante le smentite da parte di Google, un ricercatore di sicurezza continua ad affermare che il sistema di protezione  ReCAPTCHA dei siti web da spammer può essere sfruttato attraverso posta indesiderata. Il ricercatore Jonathan Wilkins ha pubblicato un documento di recente che effettua anche una valutazione di sicurezza del reCAPTCHA. In attacchi automatizzati che ha condotto contro il sistema, ha riferito che aveva un tasso allarmante di successo del 17,5 per cento.


CAPTCHA sta per "Completely Automated Public Turing test to tell Computers and Humans Apart", Test di Turing pubblico e completamente automatico per distinguere computer e umani. Si tratta d'un metodo per sventare attacchi automatizzati da spammer su siti web.  Il ReCAPTCHA viene impiegato su una varietà di siti web in cui i visitatori vogliono creare account o effettuare altre azioni che sono spesso sfruttati da script dannosi

Prima che un internauta possa eseguire in un sito un dato compito, come ad esempio la creazione di un account di posta elettronica o l'aggiunta di commenti a un blog posting, a lui o lei viene presentata l'immagine di una parola o una frase che mette in difficoltà in qualche modo. L'immagine distorta è destinata a contrastare scanner e software per il riconoscimento ottico dei programmi utilizzati per automatizzare la compromissione dei siti web da parte degli spammer. 

ReCAPTCHA è stato progettato dai ricercatori della Carnegie Mellon University come un modo per risolvere due problemi in una volta - la scansione di libri più accurata ed evitare script automatici che possono scatenare il caos sui siti web pubblici. L'idea è che gli esseri umani sono in grado di leggere ogni tipo di immagini a forma di caratteri mentre le macchine non possono. Alcuni semplici calcoli rivelano quanto sia allarmante la scoperta di Wilkins. 

Il gestore di una botnet, anche modesta di 10.000 macchine, sarebbe perfettamente soddisfatto con un tasso di successo pari allo 0,01 per cento. Ciò significherebbe 10 account di gmail potrebbero essere creati ogni secondo o 864.000 nuovi account al giorno da cui lo spam potrebbe essere lanciato. I contatori di Google che Wilkins ha preso di mira e testati sono in una vecchia forma di reCAPTCHA quando dal 2008 è stato modificato.


"[T] il suo studio non riflette l'efficacia delle attuali tecnologie di reCAPTCHA contro la macchina risolutore", un portavoce di Google ha detto a The Register. "Abbiamo trovato che il reCAPTCHA è molto più resistente, mentre anche abbiamo trovato un equilibrio giusto con l'usabilità umana, e abbiamo ricevuto feedback molto positivi da parte dei clienti."

Wilkins ha riconosciuto che le sue prove iniziali erano su una versione precedente di reCAPTCHA, ma da quel momento, egli ha condotto test su nuove immagini prodotte dal sistema e li ha trovate essere ancora più deboli di quelle vecchie. In una delle sue prove originali sul sistema, la sua percentuale di successo era 5 su 200. 

Quando questo test è stato eseguito sul reCAPTCHA nuovo, il tasso è stato del 23 in 100. La principale differenza tra le versioni vecchie e nuove di reCAPTCHA, secondo Wilkins, è l'uso di linee orizzontali per oscurare i caratteri nell'immagine. Mentre l'uso delle linee rende più difficile per le macchine di riconoscere la frase di un reCAPTCHA , anche se Wilkins sostiene le linee possono essere facilmente sovvertite da spammer, ma rende anche la frase più difficile da leggere, anche da esseri umani. 

Nuove immagini di reCAPTCHA non presentano le righe, ma aggiungono la distorsione dell'immagine. Sono più facili da leggere per gli umani, ma, ahimè, sono anche più facile da leggere per le macchine di crack. Diversamente dalla maggior parte dei sistemi CAPTCHA, Google utilizza immagini con due parole. Questo perché Google utilizza reCAPTCHA per due scopi. Il ReCAPTCHA è stato progettato dai ricercatori della Carnegie Mellon University come un modo per risolvere due problemi in una volta - la scansione di libri più accurata ed evitare script automatici che possono scatenare il caos sui siti web pubblici.


Come altri sistemi CAPTCHA, è progettato per frustrare gli spammer, ma è inserito anche nelle iniziative di Google per digitalizzare i libri. Quando una parola scansionata in un libro può non essere riconosciuta dal software OCR di Google, è inviata al pool di reCAPTCHA. Così, quando una persona entra in una frase in una forma di reCAPTCHA, Google può scoprire sol suo programma di OCR, senza dover assumere redattori per esaminare i risultati della scansione. 

Un punto debole dei sistemi CAPTCHA, è però il fatto che usano parole che si possono trovare nel dizionario. Questo rende più facile per le macchine rompere le frasi perché hanno qualcosa per confrontarle con gli errori. Inoltre, reCAPTCHA utilizza un sistema "one-off". Ciò significa che una lettera in una parola può essere corretta, e sarà ancora accettata dal sistema. Quindi, se la frase reCAPTCHA contiene la parola "morbido" e un Webster entra digitando "torbido", la sua risposta sarà ancora interpretata come valida. 

Tuttavia, è anche possibile inserire come sfondo una protezione aggiuntiva per i servizi, come ad esempio limitando il numero di richieste provenienti da un unico indirizzo IP. Alcune alternative di CAPTCHA evitano parole del tutto. Microsoft, per esempio, ha sviluppato un programma chiamato Asirra che è totalmente basata su immagini di cani e gatti. Per eseguire un compito protetto da Asirra , una netizen che si presenta con una serie di 12 fotografie e che chiede di identificare ogni foto sia come un cane o gatto. 

Questo metodo viene chiamato Human Interactive Proof, o HIP. Per essere efficaci, i sistemi di HIP hanno bisogno di essere supportati da database di grandi dimensioni, che impostano la potenza di calcolo contro l'attacco di uno spammer. Microsoft lo fa utilizzando il database di foto su Petfinder.com, che contiene circa tre milioni di immagini. Il documento di Wilkins lo trovate in formato PDF a questo indirizzo.