Non solo Cambridge Analytica. La cyber security tra intelligence e fake news

Non solo Cambridge Analytica. La cyber security tra intelligence e fake news
La variabile cibernetica nella Relazione sulla politica dell’informazione per la sicurezza 2017 assume adesso le caratteristiche di una realtà sempre più “perniciosa, sofisticata e di difficile rilevazione”. L'analisi di Maurizio Mensi

La cosiddetta “minaccia ibrida” è sempre più al centro delle preoccupazioni dei nostri servizi di sicurezza. Se nella Relazione 2016 “la variabile cibernetica” come strumento di offesa incominciava a delinearsi tramite “azioni informali, discontinue, apparentemente occasionali”, sovente inserite in vere e proprie campagne di guerra asimmetrica con attacchi seriali e tattiche operative tali da rendere difficile risalire agli aggressori (Premessa, pag. 16), nella Relazione sulla politica dell’informazione per la sicurezza 2017 presentata lo scorso 20 febbraio assume invece le caratteristiche di una realtà sempre più “perniciosa, sofisticata e di difficile rilevazione”.

Insomma, lo strumento cibernetico agevola attività di influenza realizzate attraverso “la manipolazione e la diffusione mirata di informazioni preventivamente acquisite attraverso manovre intrusive nel cyber-spazio”. Si tratta delle cosiddette fake news, volte a orientare l’opinione pubblica, fomentare tensioni socio-economiche, accrescere l’instabilità politica dei Paesi occidentali, soprattutto in occasione dell’adozione di decisioni strategiche (Allegato alla Relazione). Con precisione ed efficacia, il direttore del Dis individua pertanto una minaccia che non ha precedenti, almeno nel nostro Paese, che è al tempo stesso pericolosa e subdola in quanto apparentemente inoffensiva, incide sui meccanismi di formazione del consenso, condiziona la libertà di espressione ed è potenzialmente destabilizzante per lo stesso sistema democratico.

Se si considera che Google da solo può influenzare circa un quarto dell’elettorato, secondo le stime di Robert Epstein dell’American institute for behavioral research and technology, e che dall’analisi dei big data tratti dal web società come Cambridge Analitica sono in grado di delineare con precisione abitudini quotidiane, preferenze alimentari, financo orientamenti politici e tendenze sessuali, prevedendo il comportamento di chiunque, ci si rende conto che il tema non può essere sottovalutato. Il tema fake news è ora all’esame della Commissione europea, che al riguardo ha avviato una consultazione pubblica per valutare quali iniziative assumere. Meritevole di menzione, tra le varie proposte volte a fronteggiare il problema, quella formulata da Dan Shefet durante l’audizione al Senato francese il 15 febbraio scorso. Lo studioso propone che Facebook e gli altri social media siano obbligati ad abilitare un algoritmo che, al raggiungimento di una determinata “massa critica” di utenti (es. 10mila) segnali come controversa una notizia, entro 48 ore la evidenzi con un tag riconoscibile da tutti gli utenti.

In tal modo, si evita ai social di operare una qualche forma di censura o rimozione dal web, rendendo edotti gli utenti che c’è qualcosa che non va nella notizia in cui si imbattono. Un ulteriore e temibile rischio per la democrazia, a ben vedere, oltre alle fake news in sé, termine improprio a cui dovrebbe sostituirsi quello di “notizie controverse”, è rappresentato dalle “notizie selettive”, differenziate a seconda dei destinatari in relazione al loro profilo. Al riguardo il rimedio proposto da Shefet appare di particolare interesse: vietarle almeno nel periodo che precede le elezioni. In sostanza, l’informazione sul web non dovrebbe essere “targettizzata” e le cosiddette “bolle” (peraltro funzionali a legittimi interessi commerciali) sono da disabilitare prima delle consultazioni elettorali così che ogni cittadino riceva le stesse notizie, evitando che sia sottoposto a indebiti condizionamenti.

ultima modifica: 2018-03-18T10:20:42+00:00 da Maurizio Mensi

 

 

 

 

Chi ha letto questo articolo ha letto anche: