Skip to main content

Perché la sicurezza nazionale dipende dall’AI. Appunti per il 2024

Nei prossimi mesi ci saranno tornate elettorali per l’Occidente: si inizia da Taiwan e si finisce con gli Usa, passando per l’Ue. Le minacce ibride sono dietro l’angolo, anche per via delle vulnerabilità intrinseche delle società aperte

Uno degli effetti del podcast “Non hanno un amico” di Luca Bizzarri per Chora News è quello di farti passare, nel tempo in cui prepari la colazione o rifai il letto, cioè nei cinque minuti circa delle puntate quotidiane, dal sospetto che ci sia qualcuno che le spara più grosse di te alla convinzione che in ogni caso domani è un altro giorno, quelle saranno ancora più grosse e noi saremo ancora lì a scavare ancora un pochino l’inesauribile fondo del nostro pozzo.

E se, invece, chi partecipa al dibattito pubblico ce l’avesse, quell’amico, ma fosse l’intelligenza artificiale in grado non soltanto di amplificare i messaggi ma anche di generarne di talmente verosimili da ingannare gli altri partecipanti e avvelenare il pozzo? Quella convinzione si rafforzerebbe allo stesso ritmo frenetico con cui si è innovata l’intelligenza artificiale nell’anno trascorso e con cui lo farà con buona probabilità anche nei prossimi dodici mesi, e oltre. Basti pensare che il lancio di ChatGPT risale all’ultimo giorno di novembre del 2022.

Ma il podcast di Bizzarri descrive perfettamente anche la nostra bassissima soglia di attenzione, il nostro arrovellarci su temi che oggi ci sembrano decisivi per le sorti della nostra specie e del mondo che abitiamo e di cui domani, puf, non abbiamo memoria. Emerge perfettamente dalle ultime tre puntate dell’anno, una sorta di best of, o meglio worst of, che racconta i piccoli e grandi tic degli italiani e i tanti che in questi dodici mesi avrebbero goduto dei consigli di un amico.

La mente è il prossimo, definitivo campo di battaglia. E un dibattito frenetico e superficiale rappresenta l’occasione perfetta per attività maligne. Per due ragioni: la prima, è per sua natura un terreno ideale per “attaccare”; la seconda, è tale perché in esso lo spazio per un approccio strategico appare limitato alla sicurezza nazionale.

E così, ogni secondo che passa senza una strategia per l’intelligenza artificiale in grado di calibrare innovazione e regolamentazione assicurando la mitigazione dei rischi interni e allo stesso la supremazia nel settore è un secondo perduto. Oggi che a guidare l’innovazione non è lo Stato ma sono i privati, la sfida è ancora più complessa e pone interrogativi esistenziali alle democrazie liberali.

Gli ottimisti, comunque, non mancano. Come l’informatico Peter Norvig, che cita i timori, che sembrano antichi, legati all’ingresso degli elettrodomestici nelle abitazioni degli americani. La soluzione è arrivata da una terza parte, Underwriters Laboratory, con un bollino di garanzia dopo appropriate verifiche. In questa direzione vanno le attività di red-teaming per individuare e correggere le vulnerabilità dei modelli previsti dall’executive order del presidente statunitense Joe Biden (ma non dall’AI Act dell’Unione europea).

In questo scenario la tenuta delle democrazie è in pericolo. Lo racconta una vignetta dell’Economist che ritrae alcuni “bad actors” che strillano, amplificati dai social media e poi dall’intelligence artificiali, nelle orecchie di una democrazia che altro sembra non poter far che provare a non ascoltare portando le mani sui padiglioni.

Un particolare: gli occhi della democrazia sono chiusi. Non vuole sentire? Non riesce a sentire? Forse entrambe le cose. È probabilmente la miglior rappresentanza moderna delle fragilità delle società aperte, che vengono sfruttate dai loro nemici, il più delle volte autocrazie segnate da meccanismi verticistici e senza sistemi di accountability, per campagna di proiezione, penetrazione e influenza di tipo ibrido. Sono cioè condotte su diversi domini, da attori non sempre “classici” (come aziende, media e diaspore all’estero). Sono anche facilmente negabili, sempre un gradino sotto la soglia del conflitto armato, ma coordinate.

Il 2024 sarà un importante anno elettorale, un’occasione perfetta per testare i sistemi di intelligenza artificiale come raccontato su queste pagine da Pierluigi Paganini. Si inizia da Taiwan e si finisce con gli Stati Uniti, passando per l’Unione europea. Solo per citare tre tornate, le più importanti e rappresentative per l’Occidente. Anche in vista del voto per il rinnovo dell’Eurocamera, l’Agenzia dell’Unione europea per la cibersicurezza (Enisa) ha lanciato un messaggio nel suo recente rapporto “Threat Landscape” 2023, in cui particolare attenzione è posta su intelligenza artificiale e deep learning. Deepfake e altre tecnologie simili possono contribuire all’obiettivo di attacchi di social engineering. Per questo, è fondamentale tenere alta la guardia su chatbot, manipolazione delle informazioni e criminalità informatica, senza sottovalutare alcune tecniche più “vecchie” ma che richiedono meno sforzi, come l’avvelenamento dei motori di ricerca e il malvertising.

Quello dei processi elettorali è soltanto uno dei settori in cui l’applicazione dell’intelligenza artificiale può generare scenari catastrofici. Infrastrutture critiche, finanza e Cbrn (cioè chimico, biologico, radiologico e nucleare) sono altri tre esempi. Ma l’intelligenza artificiale potrebbe anche essere un alleato nella sicurezza informatica: la sua capacità di individuare e correggere vulnerabilità potrebbe essere sfruttata per proteggere i processi elettorali e le infrastrutture critiche, contribuendo così a mitigare i rischi invece di aumentarli.

Sì, in quella che Antony Blinken, segretario di Stato americano, ha definito sfida tra tecno-democrazie e tecno-autocrazie sottolineando così l’importante di un approccio multilaterale da parte delle prime nel confronto con le seconde, ci serve un amico. Ma ci serve anche riconoscere i nemici. Siano essi reali o artificiali.


×

Iscriviti alla newsletter