Skip to main content

La rivoluzione (dei troll) russa. Ecco come si manipola l’opinione pubblica

Di Federica De Vincentis

Troll è forse la parola più usata del momento, seppur con sfumature diverse rispetto al passato. In Italia è tornata alla ribalta dopo la “tempesta” di messaggi online contro il presidente della Repubblica Sergio Mattarella a seguito del “no” del Colle a Paolo Savona ministro dell’Economia, un caso sul quale oggi indagano l’intelligence, la Polizia Postale e la magistratura. Ma nonostante il clamore degli ultimi giorni, questi eventi accadono da tempo e, secondo gli esperti, ce ne saranno di nuovi ancora a lungo.

CHE COSA SONO I TROLL

Nel gergo di Internet, e in particolare delle comunità virtuali, un troll è un soggetto che interagisce con gli altri tramite messaggi provocatori, irritanti, fuori tema o semplicemente senza senso e/o del tutto errati, con il solo obiettivo di disturbare la comunicazione e fomentare gli animi.
Se si guarda agli ultimi avvenimenti, però, lo stesso termine è stato utilizzato per definire gli autori (umani o operanti attraverso reti di bot) di messaggi studiati a tavolino con il preciso intento di screditare un personaggio preciso o per diffondere determinate idee, spesso e volentieri con toni forti o con argomenti fuorvianti o palesemente falsi.
Il fenomeno, come detto, non nasce oggi, anzi, anche se nel tempo ha assunto significati e anche una portata differenti.
Le campagne di troll, aveva spiegato a novembre scorso in un’intervista a Cyber Affairs Stefano Zanero, professore associato del dipartimento di computer engineering del Politecnico di Milano, sono un elemento che accompagna Internet da sempre, da ben prima dell’esistenza dei social media. Tuttavia, ha sottolineato il docente, “se una volta però questi troll erano principalmente ludici, adesso non è difficile vedere una mescolanza di troll e agitatori politici più o meno professionali. Infine, non va dimenticata la presenza di moltissime migliaia di account social finti, a volte compromessi, a volte creati di sana pianta, dediti a propagare e ridistribuire con forza contenuti di vario genere, che spesso catturano e rilanciano fake news, bufale, siti acchiappaclick e campagne create dai troll; questi rilanci hanno sia finalità economiche – ad esempio lucrare sui referral dei link, sia – verrebbe da dire molto spesso – vere e proprie finalità politiche e di disinformazione, come le famose botnet di cui si parla sovente”.

LA “FABBRICA” DEI TROLL

Di chi svolge questo lavoro al servizio di società o per conto di nazioni si sa naturalmente molto poco. Uno degli esempi più noti in questo senso è l’Internet Research Agency di San Pietroburgo (conosciuta anche come Glavset). La cosiddetta “fabbrica” dei troll è ritenuta infatti dagli investigatori americani uno degli epicentri mondiali di diffusione di fake news, comprese quelle che avrebbero provato a influenzare anche le passate elezioni Usa e che sono al centro dell’inchiesta guidata dal procuratore generale Robert Mueller, il Russiagate.
A gettare un po’ di luce su questo mondo oscuro è stato nei mesi scorsi il New York Times, che è riuscito a intervistare proprio uno degli ex dipendenti dell’Ira.
Alla testata americana, la persona, coperta da anonimato, sottolineò di aver iniziato allettato dal buon stipendio che gli veniva garantito. Egli/ella e il resto del team, adeguatamente istruiti, dovevano semplicemente modificare e ripubblicare materiale, intavolare discussioni sui social network, sottolineare i difetti di chi gli veniva indicato. La lista degli obiettivi arrivava per posta elettronica presso la propria postazione. Ogni dipendente (le stime ne indicano diverse centinaia) aveva un compito specifico: scrivere articoli, postare commenti, condividere post in un minimo numero giornaliero prestabilito.

I CASI RECENTI

Queste attività, evidenziano gli addetti ai lavori, non sono solo appannaggio della Russia, che pure è la patria dell’arma tattica della “disinformazia”. Nel tempo l’attenzione dei media italiani per questo tema è divenuta anche oggetto di derisione, attraverso l’hashtag #HaStatoPutin, usato per farsi beffe di chi si ritiene punti sempre il dito contro il Cremlino. Il nome di Mosca, però, è senz’altro quello che ricorre più spesso negli approfondimenti degli studiosi e, di rimbalzo, nelle cronache (il caso più recente è la pubblicazione, da parte del sito americano FiveThirtyEight, di milioni di tweet associati all’agenzia russa che dimostrerebbero un intervento sistematico sui social media per influenzare l’opinione pubblica, anche italiana, sebbene in misura ridotta rispetto agli Usa).
Alla questione delle fake news e delle campagne di influenza l’Atlantic Council, think tank di Washington, ha dedicato uno dei suoi report più noti anche nel nostro Paese, “The Kremlin’s Trojan Horses” 2.0. Lo studio analizza l’influenza russa all’interno dei sistemi politici e sociali di Italia, Grecia e Spagna (nella prima edizione si parlava più approfonditamente di Germania, Francia e Regno Unito).
Lo stesso “pensatoio”, attraverso il proprio laboratorio dedicato alle analisi dei contenuti open source circolanti in Rete – il Digital Forensic Research Lab diretto da Graham Brookie – si è concentrato molto sulle attività di disinformazione, sui metodi utilizzati e sugli effetti che queste hanno sugli internauti e sull’agenda mediatica.

I METODI UTILIZZATI

Dagli studi emerge un quadro sfaccettato, che illustra come il ciclo di vita delle campagne di influenza sia complesso e non lineare, anche se estremamente calcolato ed efficace. Uno degli esempi fatti dal DfrLab è quello dell’utilizzo di piattaforme come YouTube. Sul sito di video sharing, la presenza di RT – un network tv finanziato dal Cremlino noto in precedenza con il nome di Russia Today – è capillare e riesce a sfruttare gli algoritmi della piattaforma per diffondere contenuti che sponsorizzano un’informazione Made in Mosca che domina nei risultati di ricerca e che viene talvolta rilanciata sul Web – in particolare su Twitter, usato molto da giornalisti e politici, e Facebook, il social network diffuso al mondo – da reti di bot che simulano una condivisione spontanea. Questi contenuti vengono poi ripresi da un vasto numero di influencer che li rendono definitivamente popolari e parte del dibattito. È importante notare, sottolineava il DfrLab, che non tutti i contenuti diffusi dai canali RT possono essere considerati disinformazione, anzi. Secondo gli esperti del team di ricerca, uno dei punti di forza del network sarebbe proprio quello di produrre video di buona fattura giornalistica che ne rafforzano la credibilità agli occhi degli utenti e dello stesso YouTube che li pone in alto nei risultati di ricerca, ai quali però vengono di volta in volta alternati specifici servizi – questi sì bollati dall’analisi come falsi – su temi di interesse per la politica del Cremlino: la guerra in Siria, l’uso di armi chimiche da parte del regime di Bashar al-Assad, la crisi ucraina, o il caso Skripal nel Regno Unito.
Un meccanismo simile regolerebbe la disseminazione di fake news vere e proprie, la cui genesi è più complicata da attribuire ma altrettanto pervasiva, poiché basata su una miriade di account e di siti apparentemente non collegati tra loro ma contraddistinti da una linea comune.
Uno studio della compagnia Alto Analytics basato sull’analisi di big data rimarcò – alla vigilia delle elezioni del 4 marzo – la centralità che la diffusione di notizie allarmistiche o false su temi caldi come l’immigrazione aveva avuto nel dibattito sociale e politico italiano.
Difficile stimarne gli effetti reali, ovvero la sua incidenza sul voto, precisò la compagnia. Ma secondo la ricerca, condotta da febbraio a luglio 2017 su oltre un milione di post e commenti generati da circa 100mila utenti, ci sarebbe stato un pericolo concreto che la propaganda xenofoba e populista divulgata attraverso i social media e da un network che ruoterebbe intorno al sito russo multilingue Sputnik (secondo uno schema già visto nel Regno Unito con il dibattito sulla Brexit e in Spagna sulla questione catalana) possa aver polarizzato le opinioni degli elettori, anche di quelli italiani.

GLI OBIETTIVI

Con quali intenti? Tali metodi, ha spiegato recentemente a Formiche.net Corrado Giustozzi, esperto di cyber security del Cert-PA e dell’Enisa, “non hanno come obiettivo quello di sostenere un candidato piuttosto che un altro, ma piuttosto quelli di distogliere da altri temi più importanti, paralizzare il dibattito, frenare l’azione politica, creare divisioni o alimentare uno scontro che alimenti sfiducia e rabbia nell’opinione pubblica, come avvenuto nel caso del referendum sull’uscita dal Regno Unito dall’Ue e di diversi momenti elettorali in Occidente”.
Tuttavia cresce il timore che quanto appreso sino ad ora possa essere solo la punta dell’iceberg. A prescindere dagli ultimi casi di cui si discute, ha commentato a questa testata il giornalista, docente e saggista Arturo Di Corinto, “potremmo pensare che si tratti di poca roba. Queste attività di influenza potrebbero però avere dimensioni ben più ampie. Che vadano avanti da tempo, da anni forse, è cosa nota. Così come è chiaro che ci sono realtà, come la Internet Research Agency, che hanno questa mission”. Per l’esperto di cyber security “ormai fare disinformazione è quasi alla portata di tutti. Nel Dark Web si possono acquistare chatbot a 200 dollari e tool che traducono i messaggi in più lingue contemporaneamente e che diverranno ancora più pericolosi con l’innesto di intelligenza artificiale”. Piuttosto, evidenzia ancora, “sarebbe utile comprendere che la propaganda che funziona è quella non evidente, quasi invisibile. Sta emergendo giorno dopo giorno una strategia preordinata di diffondere messaggi, poi rilanciati da molti utenti in modo consapevole o inconsapevole, su temi divisivi come l’immigrazione o la crisi economica”. Con quali effetti? “Condizionare l’agenda mediatica mainstream che contribuisce, in ultima istanza, a formare l’opinione pubblica”.



×

Iscriviti alla newsletter