Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

La guerra (silenziosa) di Google, Facebook e Twitter a Isis

Una guerra silenziosa. Da qualche giorno Facebook, Twitter e Google hanno dato il via ad una vera e propria crociata contro la propaganda e il reclutamento di jihadisti online. La strategia messa in atto, però, non prevede proclami o aperte prese di posizione, ma il silenzio. Questo – secondo quanto riporta Reuters – per evitare che si diffonda l’idea che i giganti del web diventino le sentinelle delle autorità nazionali per le indagini sul web.

UNA GUERRA SILENZIOSA

Lo scorso venerdì, per esempio, Facebook avrebbe bloccato il profilo attribuibile a Tashfin Malik, la donna implicata insieme a suo marito nella strage di San Bernardino, su cui l’Fbi sta investigando in quanto “atto di terrorismo”. Solo un giorno prima, il primo ministro francese e i capi della Commissione Europea avevano incontrato separatamente Facebook, Google e Twitter per incitarli ad adottare azioni tempestive per far fronte a quello che loro definiscono “incitamento al terrorismo online e all’odio”.

STRATEGIA E PAURE DEI BIG DEL WEB

I giganti del web hanno definito la loro strategia lineare: loro possono “bannare” alcune tipologie di contenuto in accordo ai loro terms & conditions e ordinarne la rimozione o il blocco. Ma questo piano nasconderebbe qualcos’altro. Secondo quanto riferiscono i loro rispettivi dipendenti, Facebook, Twitter e Google temono che, rendendo pubblici i livelli di cooperazione con i governi occidentali, potrebbero ricevere un numero infinito di richieste simili da parte di nazioni di tutto il mondo. Non solo. I big della rete hanno paura di essere percepiti dai consumatori, in questa veste, come una sorta di telecomando nelle mani di questo o di quel governo.

Peggio ancora, se i governi rendessero noto lo stato dei lavori, il rischio sarebbe quello di anticipare le mosse ai militanti jihadisti, vanificando gli sforzi investigativi di Twitter e soci. «Se la “ricetta magica” venisse svelata, chiunque potrebbe trarne vantaggio», ha spiegato un esperto di sicurezza che lavora per Facebook e per Twitter e che ha chiesto di rimanere anonimo proprio in virtù della delicatezza del caso.

IL RAPPORTO TRA SOCIAL MEDIA E GOVERNI

Ma uno degli aspetti più interessanti della questione, secondo gli esperti del settore, riguarda il rapporto che i social media hanno con i governi. Facebook ha sempre dichiarato di non trattare questo tipo di richieste diversamente da quelle dei singoli cittadini, finanche se ricevono ordine dai parte dei governi stessi. I fantastici tre del web fanno parte, infatti, di un nutrito gruppo di società che pubblicano regolarmente rapporti sulla trasparenza che fanno il punto di tutte le richieste ufficiali riguardanti i contenuti sui loro siti.

In alcune occasioni non c’è neppure bisogno che le autorità si presentino al cospetto di Twitter & co. con un ordine da parte del tribunale. «È cosa comune per le autorità federali contattare direttamente Twitter  chiedendo assistenza, piuttosto che passare attraverso i canali formali», ha spiegato un attivista che ha supportato diversi soggetti a disabilitare numerosi account.

IL RUOLO DEGLI ATTIVISTI

Alcuni attivisti online ben organizzati, infatti, stanno dando un preziosissimo contributo diffondendo link di eclatanti casi di violazioni delle policy aziendali e coinvolgendo altri volontari a fare lo stesso. «Quante più segnalazioni vengono effettuate, tanto più un contenuto verrà esaminato e trattato tempestivamente», ha spiegato un attivista a Reuters.

Ma basarsi solo sul numero delle segnalazioni, può generare altri tipi di problemi. Facebook, per esempio, aveva sospeso e limitato gli acconti di molti ucraini filo-occidentali dopo che questi erano stati accusati di incitamento all’odio da parte di alcuni utenti russi in quella che sembrava essere una campagna coordinata, ha spiegato l’ex membro dello staff di sicurezza di Facebook, Nick Bilogorskiy, un immigrato ucraino che ha aiutato alcune delle persone implicate a vincere i ricorsi. Facebook ha rifiutato di esporsi su casi come questi.

LA MANCANZA DI DATABASE AD HOC

Ciò che le forze dell’ordine, i politici e alcuni attivisti vorrebbero davvero è che i giganti della rete impedissero a monte la condivisione di certi contenuti, sottolinea l’approfondimento di Reuters. Ma si tratta di una sfida tecnologica enorme, nonché di un cambiamento di politica senza precedenti. Alcuni contenuti di pornografia infantile possono essere bloccati perché le aziende di tecnologia hanno accesso a un database che identifica immagini precedentemente note. Un sistema simile funziona per la musica protetta da copyright. Ma nel caso dei video, non esiste un database che riguardi atti di violenza. Non solo, lo stesso filmato che potrebbe violare i termini di servizio di un social network, se caricato da un anonimo militante, potrebbe essere valutato come non dannoso se comparisse in un notiziario.

Il rischio, spiega Nicole Wong, ex vice direttore dell’ufficio tecnologico della Casa Bianca, è che i governi chiedano alle aziende IT di aggiornare continuamente quel database con contenuti che loro non vogliono includere, in quanto particolarmente riluttanti.

LE NUOVE POLICY DEI GIGANTI DEL WEB

Nonostante queste problematiche, nelle ultime settimane ci sono stati alcuni cambiamenti politici formali in casa social. Twitter ha rivisto la sua politica di abuso vietando non solo le minacce dirette alla violenza ma anche quelle indirette e ha migliorato notevolmente la velocità di gestione delle richieste di abusi.

Facebook, dal canto suo, ha spiegato che quest’anno ha bandito qualsiasi contenuto lodasse i terroristi.

YouTube di Google ha ampliato un programma poco conosciuto, il Trusted Flagger. Si tratta di un sistema di segnalazione da parte di una community composta da enti riconosciuti che consente agli utenti di segnalare potenziali violazioni. Dopo la segnalazione di un video da parte di un utente, i contenuti vengono immediatamente esaminati. Il team per l’applicazione delle norme esamina i contenuti segnalati 24 ore al giorno, sette giorni su sette, eliminando prontamente il materiale che vìola le norme.

×

Iscriviti alla newsletter