Skip to main content

I rischi dell’IA per la sicurezza nazionale secondo Mantovano

“Non si può sottacere il ruolo dell’intelligenza artificiale nella divulgazione di propaganda e disinformazione”, ha spiegato il sottosegretario. “Serve un protocollo per facilitare la condivisione di dati tra gli Stati”, ha detto Guidi, vicedirettore del Dis. Per Frattasi (Acn) l’AI Act è “indispensabile”

L’intelligenza artificiale è “già oggi uno dei fenomeni che maggiormente rivoluzioneranno diversi aspetti della nostra vita, i cui effetti si dispiegheranno anche sul fronte della sicurezza nazionale”. Lo ha spiegato oggi il sottosegretario Alfredo Mantovano, Autorità delegata per la sicurezza della Repubblica, in un messaggio inviato all’evento CyberSec 2024, a Roma.

Da un lato, l’intelligenza artificiale “offrirà opportunità senza precedenti per migliorare la nostra sicurezza nazionale” ma dall’altro “rappresenterà una sfida significativa per gli apparati di sicurezza”, ha proseguito Mantovano che la scorsa settimana, alla presentazione della Relazione annuale sulla politica dell’informazione per la sicurezza, aveva ricordato che questa tecnologia rappresenta uno dei temi centrali della presidenza italiana del G7. Tra gli effetti positivi, il sottosegretario ha ricordato “la possibilità di elaborare e analizzare rapidamente una grande mole di dati e informazioni, volti a far emergere imminenti minacce alla sicurezza nazionale, il supporto agli operatori nell’identificazione e monitoraggio di gruppi sospettati di terrorismo o appartenenti alla criminalità organizzata, l’ausilio nell ambito della cybersicurezza per il contrasto in tempo reale e con maggiore efficacia degli attacchi informatici”. Tuttavia, ha proseguito, “non si può sottacere il ruolo dell’intelligenza artificiale nella divulgazione di messaggi di propaganda e disinformazione, di campagne ingannevoli, e il rischio di violazione della privacy dei cittadini”, come avvertito anche dall’Agenzia dell’Unione europea per la cibersicurezza (Enisa) in vista delle prossime elezioni europee di giugno e dall’Fbi in vista delle presidenziali americani di novembre.

Sulla centralità dell’intelligenza artificiale nell’agenda del G7 italiano si è soffermato nel suo intervento anche Bruno Frattasi, direttore generale dell’Agenzia per la cybersicurezza nazionale, che ha definito il modello regolatorio europeo, l’AI Act, come “indispensabile”. Inoltre, ha annunciato di essere al lavoro per un gruppo permanente strutturato che sulle policy di sicurezza informatica in vista della riunione G7 Cyber di maggio.

All’evento ha preso parte anche Alessandra Guidi, vicedirettore generale del Dipartimento delle informazioni per la sicurezza, la struttura che coordina il lavoro delle due agenzie d’intelligence italiane. I sistemi di intelligenza artificiale “costituiscono un fattore di opportunità in quanto consentono di processare una grande mole di dati e di intercettare le minacce per neutralizzarle con più facilità e tempestività”, ha osservato. Le criticità, invece, “riguardano i comportamenti di attori ostili che negli ultimi anni hanno cambiato la loro postura rispetto all’ambiente digitale, provocando malfunzionamenti dei servizi pubblici e un disorientamento dell’opinione pubblica”.

Guidi è poi tornata sui temi toccati da Elisabetta Belloni, direttore generale del Dipartimento delle informazioni per la sicurezza, la scorsa settimana presentando la relazione: la possibilità che l’intelligenza artificiale sia utilizzata per amplificare, per giunta a basso costo, propaganda e disinformazione. “Permangono criticità che si sono accentuate vista la pervasività della minaccia”, ha osservato Guidi. “Dovremmo provare a mettere in campo un protocollo, un accordo in cui la condivisione dei dati tra Stati sia facilitata rispetto allo scenario della minaccia, e procedere a un rafforzamento della cornice legale, mettendoci d’accordo sull’interpretazione dei diversi principi”, ha concluso.


×

Iscriviti alla newsletter