Condivisione delle informazioni, sicurezza, trasparenza e investimenti in ricerca e sviluppo su Intelligenza Artificiale e propaganda computazionale, ovvero quella condotta a colpi di bot.
Sono questi alcuni dei punti sui quali le due sponde dell’Atlantico dovrebbero, secondo gli esperti, unire le forze per contrastare la moderna ‘guerra’ condotta contro l’Occidente usando cyber attacchi e disinformazione online. Solo in questo modo sarà possibile preservare le nostre società democratiche, così come le conosciamo.
GLI AUTORI DEL REPORT
Il tema è oggetto di un approfondito report scritto a quattro mani da Alina Polyakova, già direttore di ricerca dell’Atlantic Council, e oggi fellow del think tank americano Brookings Institution e adjunct professor alla Johns Hopkins University, e Spencer Boyer, nonresident senior Fellow nel medesimo think tank e Georgetown University, con un passato nelle istituzioni d’oltreoceano.
UN FUTURO COMPLESSO
Nelle 24 pagine del documento, intitolato ‘The future of political warfare: Russia, the West, and the coming age of global digital competition’, si pone in evidenza che anche se da un lato gli strumenti e i metodi esistenti per colpire verranno man mano esposti e neutralizzati, dall’altro la tecnologia continuerà ad avanzare e diventerà finanziariamente più accessibile, gli attori malevoli continueranno a far evolvere le loro tattiche. Diventa pertanto fondamentale, quanto prima (lo studio stabilisce come un tempo limite da qui a 5 anni) accantonare un approccio politico reattivo, che si limita semplicemente a colmare le lacune delle vulnerabilità esistenti o risponde caso per caso – poiché destinato a fallire – e puntare su una strategia collaborativa di portata transatlantica.
TRE LINEE DI AZIONE
Una possibile risposta, scrivono la Polyakova e Boyer, si sostanzia in tre linee di azione. La prima è quella che riguarda la condivisione delle informazioni. I governi europei, gli Stati Uniti e gli alleati dovrebbero istituire meccanismi di condivisione delle informazioni con le imprese del settore privato. Le imprese tecnologiche dovrebbero cooperare volontariamente con le agenzie del settore pubblico, in particolare con la comunità dei servizi segreti, per istituire un sistema di allarme rapido quando le attività di disinformazione vengono rilevate nei loro sistemi. A tal fine, i governi nazionali, l’Unione europea e la Nato dovrebbero istituire un interlocutore designato all’interno delle agenzie d’intelligence che possa essere il punto di contatto per ricevere e distribuire tali informazioni, a seconda dei casi. Un sistema volontario di condivisione delle informazioni sarebbe l’ideale, ma, si sottolinea, tali processi potrebbero anche essere richiesti per legge.
L’Alleanza Atlantica, l’Unione europea e gli Stati Uniti dovrebbero inoltre istituire un’unità di condivisione delle informazioni incentrata specificamente sulla disinformazione informatizzata. La Nato, in quanto principale organizzazione di difesa e sicurezza che collega la partnership transatlantica, dovrebbe assumere un ruolo guida nel coordinamento della condivisione delle informazioni attraverso meccanismi esistenti e nuovi nel Comando cibernetico dell’Alleanza o nella divisione congiunta di intelligence e sicurezza della Nato (Jis).
Infine, si rileva che i governi europei e gli Usa dovrebbero convocare regolarmente le task force StratCom, Hybrid Threat e Cyber Threat attualmente esistenti all’interno di varie agenzie. Un forum annuale di StratCom dovrebbe essere istituito a Bruxelles con la partecipazione degli Stati Uniti e degli alleati.
SICUREZZA E TRASPARENZA
Il secondo punto da approfondire, per il report, è quello che attiene al miglioramento della sicurezza e trasparenza delle informazioni. Gli stati europei e gli Stati Uniti, si sostiene, dovrebbero ordinare un controllo immediato dei sistemi informativi governativi, della sicurezza delle reti e dei sistemi classificati. Tale revisione dovrebbe identificare vulnerabilità attuali e al tempo stesso guardare avanti alle minacce emergenti. Il rapporto risultante dovrebbe essere classificato, ma dovrebbe avere anche una versione non classificata per informare il pubblico. Tale audit dovrebbe essere completato rapidamente e le sue raccomandazioni prese seriamente.
Poi: le società di tecnologia e i social media dovrebbero sviluppare strumenti per identificare rapidamente account falsi e automatizzati; le aziende del settore privato dovrebbero controllare i clienti pubblicitari per impedire ad attori malevoli di promuovere i loro contenuti (magari bandendoli o spingendo il loro materiale in basso nelle ricerche); i colossi del tech dovrebbero accettare un codice di condotta aziendale in materia di pubblicità e dati che limitererebbe il dettaglio dei dati personali utilizzati negli strumenti pubblicitari, introdurrebbe trasparenza nei flussi di entrate pubblicitarie e estenderebbe le restrizioni sulla pubblicità politica già in vigore per i media tradizionali nello spazio online; i ‘mediatori’ di dati dovrebbero essere obbligati per legge a fornire ai consumatori l’accesso ai loro dati, inclusa la possibilità di correggerli o sapere quando finiscono in vendita; infine, le istituzioni accademiche che formano la prossima generazione di esperti informatici dovrebbero introdurre corsi di etica nel curriculum richiesto, perché, in fondo, anche gli algoritmi sono scritti dagli esseri umani e quindi hanno intrinseci pregiudizi incorporati in essi e sono tutt’altro che ‘neutrali’ (maggiore consapevolezza di ciò potrebbe rendere gli algoritmi e l’intelligenza artificiale meno suscettibili alla manipolazione).
GLI INVESTIMENTI IN RICERCA E SVILUPPO
Un ultimo piano di azione affrontato nel documento parla della necessità di investire in ricerca e sviluppo su Intelligenza Artificiale (AI) e propaganda computazionale. Secondo i due esperti, governi, fondazioni private, importanti organizzazioni di politica non profit e le aziende tecnologiche dovrebbero investire nella ricerca accademica che esplora come i progressi tecnologici influenzeranno la cosa pubblica. Mentre l’AI trasformerà positivamente molti settori – salute, trasporti e altri – il potenziale negativo e le implicazioni delle nuove tecnologie dovrebbero anche essere riconosciute e studiate.
Inoltre, si evidenza che per anticipare la propaganda computazionale guidata dalle macchine, le aziende tecnologiche
(attuali e future) dovrebbe sviluppare la prossima generazione di tecniche di rilevamento guidate dall’AI e implementarle in piattaforme prima che la minaccia diventi più urgente. Ciò mitigherà la possibilità che attori malintenzionati manipolino piattaforme online nel futuro.
I governi, le fondazioni private, il mondo accademico e le società tecnologiche dovrebbero, infine, secondo Brookings Institution, investire in una ricerca che esamini il “lato della domanda” della disinformazione oltre al “lato dell’offerta”. Le narrative sulla disinformazione si diffondono perché gli individui le trovano attraenti. Le tecniche e gli strumenti sono solo una parte dell’equazione. Comprendere meglio la psicologia sociale della disinformazione aiuterebbe governi,
media indipendenti e gruppi della società civile meglio equipaggiati per contrastare tale propaganda.