Tra sostenitori e detrattori, fischi e applausi i social network sono tornati sotto la lente d’ingrandimento dell’opinione pubblica dopo gli attentati di Orlando della scorsa settimana, riaccendendo la discussione – mai sopita da un anno e mezzo a questa parte – sul ruolo di Twitter & co. in relazione al terrorismo e alla propaganda online.
TERRORISMO E SOCIAL NETWORK: GLI ULTIMI EPISODI
Lunedì, il presidente degli Stati Uniti Barack Obama ha dichiarato che l’autore della strage più grave nella storia americana, Omar Mateen, sarebbe stato ispirato da «informazioni e messaggi estremisti» circolanti sul web. Lo stesso giorno, Larossi Abballa che ha ucciso due poliziotti a Magnanville, in Francia, aveva rivendicato l’atto attraverso un video di Facebook live. Un lungo messaggio, poi rimosso dagli amministratori del social network, in cui l’attentatore invitava a uccidere poliziotti, secondini, giornalisti e rapper. E in cui dichiarava che «l’Euro 2016 sarà un cimitero».
LA COLLABORAZIONE TRA AUTORITÀ E GIGANTI DEL WEB
«I social network, che di fatto svolgono un ruolo essenziale nella propaganda e nell’organizzazione di atti terroristici, sono oggetto da diversi anni di molte critiche, ma anche di richieste di aiuto da parte delle autorità», spiega Lucie Ronfaut su Le Figaro.
Bernard Cazeneuve nel 2015 aveva immediatamente fatto appello ai giganti del web dopo gli attentati di Charlie Hebdo e all’Hypercacher: «Abbiamo bisogno che le aziende che operano sul web capiscano che hanno un ruolo molto importante da svolgere», aveva dichiarato. Da quel momento i big dei social hanno intensificato il dialogo con le autorità e si sono dimostrati assolutamente propensi a collaborare. E lo hanno fatto non solo a parole, migliorando i loro strumenti di monitoraggio e collaborando attivamente con le associazioni di prevenzione alla radicalizzazione.
Nonostante alcuni progressi, però, il problema sussiste. I sostenitori di una propaganda o di un’organizzazione terroristica, infatti, non trovano alcun ostacolo nel veicolare messaggi e contenuti multimediali su Twitter, Facebook o YouTube.
I giganti del web possono realmente fare qualcosa per combattere il terrorismo? Le Figaro non è troppo ottimista e dice che la battaglia è «tutt’altro che vinta».
CONTROLLO E MODERAZIONE DEI CONTENUTI
Il primo problema, forse quello più spinoso, è rappresentato dal controllo e la moderazione dei contenuti. Si stima che giornalmente vengano postate 350 milioni di foto su Facebook, e 500 milioni di cinguettii su Twitter. Come si fa a passare al vaglio ogni singolo contenuto assicurando, allo stesso tempo, fluidità e facilità d’uso agli utenti? Entrambi i social network, inoltre, hanno recentemente investito nel campo di dei video in diretta, con Periscope e Facebook live, quasi impossibili da monitorare.
Ma le difficoltà non finiscono qui, spiega il quotidiano francese. Tutti i giganti dei social affermano di avere “squadre” che si occupano di moderazione, ma non entrano mai nei dettagli. Non è noto, infatti, né quante persone li compongano, né dove si trovino. Questo servizio, inoltre, viene spesso gestito in outsourcing ad altre aziende che impiegano persone con scarse qualifiche. Nel 2012, un marocchino impiegato dalla società oDesk (ex Upwork) ha rivelato di aver lavorato per Facebook. La partnership tra le due società è cessata. Nel 2014, inoltre, Wired ha visitato diverse società di outsourcing addette alla moderazione , tra cui quella che lavora attualmente per YouTube, ubicata nelle Filippine.
Per migliorare i loro sistemi di moderazione, i social network stanno sperimentando strumenti automatizzati. YouTube, ad esempio, salva il codice di tutti i video eliminati in modo che non possano essere ripubblicati. Alla fine di maggio, uno dei responsabili dell’unità di intelligenza artificiale di Facebook ha dichiarato che «le foto maggiormente pericolose sono ora segnalate da robot al posto degli uomini».
IL CONFINAMENTO ALGORITMICO
Il secondo problema è rappresentato dal cosiddetto “confinamento algoritmico”. La maggior parte dei social network sono governati da algoritmi complessi, in grado di offrire ai propri utenti contenuti sulla base delle loro preferenze e delle attività online. Questo sistema diventa pericoloso quando si applica a utenti interessati alla propaganda jihadista, poiché gli saranno suggerite pagine, contatti e contenuti di quel tipo.
Il fenomeno è stato pubblicamente denunciato lo scorso maggio ma sarà difficile riuscire a trovare una soluzione a questo problema. La risposta è presto detta. C’è il ballo il segreto dei segreti dei giganti social: l’algoritmo, per l’appunto.
LA CRITTOGRAFIA
Non solo lotta alla propaganda estremista. La collaborazione dei big del web è necessaria anche per l’attività di monitoraggio di quei profili sospettati di preparare atti terroristici. La collaborazione con le autorità durante le indagini già c’è. Tuttavia, queste piattaforme hanno rafforzato gli strumenti di tutela della privacy dei loro membri. Basti pensare alla crittografia, un processo di sicurezza dei dati che li rende illeggibili a terzi.
Si tratta di una questione molto delicata per Facebook & co., e che ha già causato diversi scontri tra le autorità e il settore privato. Basti pensare quando, all’inizio 2016, l’FBI chiese – invano – la cooperazione da parte di Apple per sbloccare un iPhone che apparteneva a Syed Farook, autore della strage di San Bernardino.
L’ALGORITMO CHE PEDICE GLI ATTACCHI TERRORISTICI
C’è chi (forse) vede un barlume di speranza nella possibilità che i social network riescano a monitorare e prevedere attacchi e derive fondamentaliste online. Il New York Times spiega come alcuni ricercatori della University of Miami, guidati dal fisico Neil Johnson abbiano elaborato un algoritmo in grado di analizzare i contenuti pro-Stato Islamico pubblicati sui social network e, secondo i creatori della formula, anche di prevedere potenziali attentati organizzati dal gruppo islamista.
Il gruppo di ricerca ha analizzato dati raccolti dal social network russo VKontakte connessi a Is, che coinvolgevano complessivamente 108.086 singoli utenti tra la metà del 2014 e l’agosto 2015. I contenuti condivisi dagli utenti riguardavano gli argomenti più disparati, dalla propaganda spicciola ai suggerimenti per sopravvivere ad un attacco effettuato con i droni.
Johnson ha spiegato i principi che hanno ispirato il suo lavoro, ovvero lo studio di piccoli gruppi “organizzati” che, rispetto movimenti più estesi o di migliaia di singoli sostenitori indipendenti, rispecchiano meglio anche ciò che avviene sul territorio. Secondo il fisico americano, infatti, anche i cosiddetti lupi solitari entrano a far parte di piccoli gruppi nel giro di qualche settimana. I ricercatori hanno anche evidenziato che c’è una vera e propria proliferazione di gruppi poco prima degli attacchi terroristici o di assalti in piena regola, come quello del 2014 a Kobane. Evento che l’algoritmo di Johnson sarebbe riuscito ad anticipare.
«Questo è un approccio interessante, potenzialmente prezioso: andrebbe fatta più ricerca in merito», ha spiegato al New York Times J. M. Berger, ricercatore del programma sugli estremismi della George Washington University. «Ma ci vuole più lavoro prima di ufficializzare la sua utilità», ha specificato.