Così Russia e Cina useranno l’intelligenza artificiale per colpire l’Occidente. Il report di Brookings Institution

Così Russia e Cina useranno l’intelligenza artificiale per colpire l’Occidente. Il report di Brookings Institution
Il think tank Usa analizza le prossime - devastanti - innovazioni nell'arsenale informatico di Mosca e Pechino

I cyber attacchi? Sono già il “passato”, o, almeno, cedono sempre più il passo a nuove forme di guerra ibrida che alcuni Stati – Russia e Cina su tutti – starebbero mettendo a punto partendo dallo sviluppo di tecnologie come l’intelligenza artificiale, automazione e machine learning, combinato a un sapiente utilizzo di big data.

IL REPORT

Il tema è oggetto di un approfondito report scritto a quattro mani da Alina Polyakova, già direttore di ricerca dell’Atlantic Council, e oggi fellow del think tank americano Brookings Institution e adjunct professor alla Johns Hopkins University, e Spencer Boyer, nonresident senior Fellow nel medesimo think tank e Georgetown University, con un passato nelle istituzioni d’oltreoceano.

I PROGRESSI TECNOLOGICI

Nelle 24 pagine del documento, intitolato ‘The future of political warfare: Russia, the West, and the coming age of global digital competition’, i due esperti partono da una previsione: nel breve periodo diventerà più difficile, se non impossibile, poter distinguere tra audio, video o presenze online reali o false. E attori malevoli – in particolare, si rileva nello studio, “Stati autoritari come Russia e Cina”, useranno queste possibilità per rivolgersi alle società occidentali in modo più rapido ed efficiente, incrementando la competizione globale su svariati fronti.

Il futuro della guerra politica, evidenzia il report, è nel dominio digitale. E “gli strumenti di influenza usati da Mosca contro l’Occidente sono ancora abbastanza basilari”, poiché “si basano sullo sfruttamento della credulità umana, sulla vulnerabilità nell’ecosistema dei social media e sulla mancanza di consapevolezza tra i cittadini media e responsabili politici”. Tuttavia, avvertono Alina Polyakova e Spencer Boyer, nel giro di 3-5 anni, questi strumenti diventeranno più avanzati e difficili da rilevare. Soprattutto, i progressi tecnologici in intelligenza artificiale e capacità informatiche “apriranno opportunità per attori malevoli intenzionati a indebolire le democrazie in modo più nascosto ed efficace di quello che abbiamo visto finora”.

L’EVOLUZIONE DELL’AI E DELLA PROPAGANDA COMPUTAZIONALE

Tra gli strumenti più utilizzati, come detto, ci saranno l’AI e la propaganda computazionale (definita come “l’uso di algoritmi, automazione e azioni umane per distribuire intenzionalmente il informazioni fuorvianti sui social media”. Nell’odierno ambiente online, si sottolinea, le aziende private sono in grado di rilevare efficacemente i bot, troll e altre forme di manipolazione, perché queste tattiche dipendono ancora da una gestione umana e, una volta acquisite le capacità, vengono dispiegate in modelli prevedibili. Ma questi strumenti stanno per diventare molto più complicati e difficili da contrastare e riconoscere, perché saranno potenziati da intelligenza artificiale e apprendimento automatico, a velocità mai viste prima d’ora. Potranno persino sfruttare le emozioni umane per suscitare risposte specifiche.

L’USO DEI BIG DATA

Inoltre, spiegano Alina Polyakova e Spencer Boyer, nelle mani di attori malevoli l’utilizzo di big data rappresenterebbe un pericolo molto grande, perché consentirebbe di realizzare operazioni di influenza e manipolare. Grazie a queste informazioni, infatti, è possibile conoscere, ad esempio, gusti, orientamenti politici, luogo di residenza. Tutti dettagli utili, in caso, a orientare e condizionare l’opinione pubblica con profili specifici – e dunque estremamente efficaci – per ogni cittadino.

CREARE LA “REALTÀ”

Altra avanguardia della disinformazione, si legge nello studio, è la capacità – che diverrà la regola in futuro – di produrre contenuti falsi – immagini, suoni o video – difficilmente distinguibili da quelli veri. Alcuni software capaci di creare questo materiale – che poi potrebbe essere diffuso massicciamente grazie a bot – esistono già, ma nel prossimo futuro saranno molto più raffinati ed efficaci.

LE INFRASTRUTTURE CRITICHE

Un ultimo punto dell’analisi, ancora più preoccupante dei precedenti, è quello che riguarda possibili attacchi a infrastrutture critiche come reti elettriche, ospedali, sistemi finanziari, trasporti. Se ad alcuni queste parole suonano ancora “come fantascienza”, i due esperti invitano a ricordare cosa è accaduto in Europa orientale, dove questo scenario – ad esempio in Ucraina a dicembre del 2015 – è divenuto realtà; o a quanto si è verificato con i più recenti WannaCry e NotPetya, per contrastare i quali l’Occidente è parso quantomai impreparato.

ultima modifica: 2018-03-12T18:28:48+00:00 da Michele Pierri

 

 

 

 

Chi ha letto questo articolo ha letto anche: