Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

I terroristi del futuro? Useranno l’intelligenza artificiale. L’analisi di Darya Bazarkina

Bazarkina

Mentre l’Isis non controlla più alcun territorio, nell’era della globalizzazione e della rivoluzione digitale, i gruppi terroristici possono ancora sopravvivere – e persino prosperare – nella cyber sfera. La minaccia terroristica è stata a lungo senza confini e mondiale. Oggi, ha spiegato la professoressa Darya Bazarkina – docente e ricercatrice presso il Dipartimento di sicurezza internazionale e politica estera della Russia dell’Accademia presidenziale russa dell’economia nazionale e della pubblica amministrazione e alla Scuola di relazioni internazionali dell’Università statale di San Pietroburgo – lo è ancora di più, poiché i gruppi terroristici hanno iniziato a sfruttare la tecnologia a loro vantaggio. A sua volta, per avere successo, la lotta al terrorismo deve anche essere internazionale e padroneggiare gli stessi strumenti con abilità.

UN ASPETTO SOTTOVALUTATO

Ospitata a Roma dal think tank Euro-Gulf Information Centre (Egic) presieduto da Mitchell Belfer, la studiosa ha affrontato in una lecture questo aspetto “sottovalutato ma cruciale della lotta contro il terrorismo nell’era digitale”.
Esperta di cooperazione internazionale sull’antiterrorismo, con un’attenzione particolare alla guerra di idee e propaganda, Bazarkina ha parlato soprattutto delle ultime ricerche su tecnologie avanzate – come il machine learning – e terrorismo.

LA RICERCA

In particolare, ha evidenziato la ricercatrice, nuove minacce alla sicurezza psicologica internazionale (Ips, international psychological security) sono oggi poste dall’uso malevolo dell’intelligenza artificiale (per il quale si utilizza invece l’acronimo Muai, malicious use of artificial intelligence). In uno studio realizzato a quattro mani con il professor Yevgeny Pashentsev, Bazarkina ha analizzato gli scenari attuali e alcuni casi specifici che hanno consentito di tracciare un quadro dettagliato dei progressi dei gruppi terroristici in questo frangente, di ipotizzare la tipologia e l’impatto di attacchi futuri e di redigere una serie di raccomandazioni riguardanti misure preventive da mettere in atto.

LE NUOVE FRONTIERE (TECNOLOGICHE) DEL TERRORISMO

Secondo un sondaggio condotto dalla compagnia Usa Neustar, l’87% degli esperti di sicurezza intervistati concordano sul fatto che l’intelligenza artificiale è importante per proteggere la loro azienda. Tuttavia, la maggioranza (82%) di essi è anche preoccupata per un uso malevolo della stessa tecnologia. Mentre un rapporto del Gao (Government Accountability Office) americano del 2018, l’IA rappresenta la principale minaccia alla sicurezza nazionale degli Stati Uniti tra le tecnologie dual use. A preoccupare, ha rilevato la ricercatrice, è da un lato l’uso sempre maggiore che ne verrà fatto per destabilizzare a livello psicologico i sistemi politici e delle relazioni internazionali, dall’altro i pericoli legati alla sicurezza vera e propria.

I nuovi strumenti adottati per realizzare queste azioni sono in continuo perfezionamento e sono destinati a diventare sempre più noti anche nell’opinione pubblica. Qualche esempio? I ‘deepfake’ (risultato di ‘deep learning’ e ‘fake’), ovvero una sintesi di immagini umane basata sull’intelligenza artificiale che viene utilizzata per combinare e sovrapporre immagini e video esistenti su immagini o video sorgente utilizzando una tecnica di machine learning chiamata ‘generative adversarial network’; la combinazione dei video esistenti e di quelli di origine genera un video in grado di rappresentare una persona o persone che dicono cose o eseguono azioni che non si sono mai verificate nella realtà, con l’obiettivo di gettarvi addosso discredito o metterle in difficoltà.

I ‘fake people’, ovvero persone non realmente esistenti ma che possono essere i protagonisti di finti video, riguardanti ad esempio proteste, che influenzano la percezione della realtà delle cose, creando divisione, sfiducia e scontento nella cittadinanza o il Paese presi di mira. I chatbot, in grado di diffondere fake news o di crearne di nuove in modo sempre meno riconoscibile. Senza contare la possibilità anche per i gruppi terroristici di utilizzare analisi e armi predittive, o tutte le conseguenze fisiche – ma anche psicologiche e di diffusione di panico nella popolazione – che possono derivare dalla simulazione o dalla vera e propria presa di controllo, gestita attraverso l’IA, di infrastrutture critiche.

COME CONTRASTARE IL FENOMENO

“La comprensione delle nuove minacce, il cui numero aumenterà”, ha evidenziato Bazarkina, “è in ritardo rispetto alle realtà in rapida evoluzione del mondo moderno. Con l’obiettivo di danneggiare la società, gli attori malevoli, comprese le organizzazioni terroristiche, possono utilizzare i sistemi di intelligenza artificiale che si stanno rapidamente diffondendo e diventando meno costosi. Sono necessari”, ha sottolineato l’esperta, “progetti di ricerca interdisciplinari per scoprire come l’uso dell’IA possa rafforzare le leve ‘tradizionali’ di influenza sulla coscienza pubblica e contrastare il fenomeno”. Per limitare nel prossimo futuro l’impatto potenzialmente devastante conseguente a un uso malevole dell’intelligenza artificiale, l’esperta ha elencato una serie di raccomandazioni destinate prevalentemente a istituzioni e decisori politici, ma anche a grandi aziende e alla comunità scientifica che hanno gli strumenti per elaborare strategie efficaci in collaborazione con il settore pubblico.

“È consigliabile utilizzare ampiamente i meccanismi di analisi predittiva di agenzie statali e sovranazionali per prevenire disordini sociali (attraverso misure sociali, economiche e politiche tempestive per raggiungere la stabilità sociale a lungo termine). Di grande importanza è la previsione assistita da AI di conflitti politici e interreligiosi, tenendo conto di una vasta gamma di fattori nel loro emergere”, ha detto Bazarkina. Mentre, “tra le misure non direttamente correlate all’IA – ma potenzialmente ottimizzate con il suo aiuto -, i governi dovrebbero sviluppare politiche a lungo termine per l’integrazione sociale di persone di diverse religioni e in progetti socialmente significativi”.

Inoltre, “nei Paesi e nelle regioni con instabilità sociale ed economica, oltre a prendere misure per migliorare il benessere dei cittadini, i governi dovrebbero spiegare alla popolazione gli obiettivi economici e politici delle organizzazioni terroristiche e l’essenza dell’ideologia del terrorismo. Più ampia è la portata delle attività terroristiche, più le maggiori agenzie internazionali dovrebbero prevedere e adottare tali misure”.

×

Iscriviti alla newsletter