L’Intelligenza artificiale deve essere progettata e vissuta come un supporto e mai una sostituzione dei processi decisionali. L’intervento di Nunzia Cardi, vicedirettore generale dell’Agenzia per la cybersicurezza nazionale, al Cybertech Europe 2023
L’inarrestabile e incessante progresso tecnologico orient[a] (…) il nostro approccio all’ecosistema digitale e a molti degli aspetti della nostra vita, quasi tutti. Ormai è difficile immaginare un aspetto della nostra vita che non intrecci e non sia un filo della trama digitale sulla quale ci muoviamo.
È importante però rammentare a noi stessi che la sicurezza, così come la funzionalità, l’efficienza, la produttività di questo ecosistema, è anche fortemente influenzata da fattori sociali, economici, e geopolitici in ultima analisi.
Ricordiamo i due eventi che hanno tragicamente caratterizzato gli ultimi anni: la pandemia prima, il conflitto poi. Eventi terribili che hanno sconvolto ogni previsione e hanno determinato assetti e rischi diversi per il nostro universo. Questo significa che in questo momento storico è importante essere flessibili e pronti a comprendere anticipare e gestire le sfide tecnologiche del futuro.
Parlando di sfide non si può non parlare di Intelligenza artificiale. Il lancio di ChatGpt ha reso plastica, importante e chiara la strategicità dell’Intelligenza artificiale e soprattutto ha reso chiaro a tutti noi le enormi potenzialità, positive e negative, che caratterizzano l’Intelligenza artificiale. (…) Non c’è giorno in cui aprendo un quotidiano o sfogliando una rassegna o semplicemente girando sui social non ci si imbatta in articoli sull’Intelligenza artificiale. E queste potenzialità dell’Intelligenza artificiale, che vanno dall’alto apprendimento al linguaggio naturale fino alle funzioni di alta complessità che può svolgere l’Intelligenza artificiale che rendono praticamente indistinguibili alcuni prodotti dell’Intelligenza artificiale da prodotti dell’essere umano – questi aspetti generano alternativamente entusiasmi e inquietudini.
Uno dei rischi è proprio quello dell’indistinguibilità dall’intelligenza umana che ci pone di fronte un futuro in cui ci sarà un problema di affidabilità. Ci chiederemo sempre più spesso: ma questo l’ha fatto un uomo o una macchina? Ma questo dato, questo prodotto è un dato reale o è un deep fake? Ma non è l’unico rischio.
I rischi che vengono spesso enumerati sono tanti: rischi sul lavoro, l’automazione sui processi e l’intelligenza avanzata potrebbero portare alla perdita di molti posti di lavoro prima che la riqualificazione o la riorganizzazione di processi del mercato del lavoro riescano ad assorbire il cambiamento; gli effetti dell’ingresso massiccio dell’Intelligenza artificiale nei processi produttivi. Altro rischio è il tema dei bias e delle discriminazioni, la mole di dati di cui si nutre l’Intelligenza artificiale e che possono influenzare l’output di certi processi quindi replicando bias e discriminazioni che sono insiti nei dati.
Approfitto di questo discorso dei dati per fare un accenno al fatto che sempre di più la mole dei dati non sarà l’unico elemento al quale dovremo fare attenzione. La quantità di dati è fondamentale per l’Intelligenza artificiale, ma in alcuni campi delicati, pensiamo alla medicina, bisognerà porre lo stesso accento sull’accuratezza del dato.
E poi c’è il problema della privacy e della sicurezza dei dati. Se l’Intelligenza artificiale si nutre dei nostri dati questo è un problema.
Poi il tema della perdita di controllo, la progressiva complessità dell’Intelligenza artificiale rende difficile capire in base a quali elementi l’Intelligenza artificiale sia arrivata a un determinato risultato. Questo è un altro problema che evidentemente, insieme al tema della responsabilità, apre enormi interrogativi sotto il profilo della responsabilità etica e giuridica. Fino ad arrivare alla super intelligenza, scenari quasi fantascientifici che vedono l’Intelligenza artificiale talmente performante da superare l’intelligenza umana e il controllo dell’uomo e far prendere il sopravvento alla macchina.
(…) Anche i vantaggi sono assolutamente rilevanti. Quelli che generano entusiasmo: l’Intelligenza artificiale può efficientare processi ripetitivi e routinari. Pensiamo a come la grande quantità di dati venga processata dall’Intelligenza artificiale in un modo che sarebbe impossibile per la mente umana – questa è assolutamente preziosa per esempio per migliorare capacità decisionali in un’azienda o in settori ancora più delicati (pensiamo alla salute pubblica e alla sanità) o migliorare le prestazioni umane di molto (pensiamo alla sicurezza stradale, quanto può ridurre un veicolo sicuro a guida autonoma l’errore umano che può portare a incidenti e tragedie).
E poi la sicurezza cyber in senso stretto, che come Agenzia [per la cybersicurezza nazionale] ci riguarda molto da vicino. È fondamentale l’Intelligenza artificiale per identificare precocemente le minacce e proteggere le reti e i sistemi scoprendo in modo efficiente e precoce anomalie e intrusioni. Tutte caratteristiche preziose in un momento in cui l’Intelligenza artificiale viene utilizzata anche dagli attaccanti per rendere più efficienti gli attacchi (che siano statali o parastatali). Attacchi che, diciamo per inciso, sono aumentati in modo enorme negli ultimi anni.
In uno scenario di questo tipo risulta evidente a tutti che quindi il vero problema non è il progresso tecnologico, non è lo sviluppo della tecnologia digitale. Il vero problema è la sua governance e ritorno sul concetto di orientare.
È il progresso tecnologico che deve orientare l’agire della società, come spesso accade, o sono le società a dover orientare il progresso tecnologico affinché ne vengano massimizzati i benefici e ridotta al minimo la quota di rischio?
(…) L’Intelligenza artificiale deve essere progettata, io direi vissuta, come miglioramento della capacità umana, un suo potenziamento. Ma che non diventi mai competitiva con l’uomo. Deve essere un supporto e mai una sostituzione dei processi decisionali.
Quindi, per governance si deve intendere l’affermazione di principi e di regole che riguardino l’etica e i valori umani, i benefici per la società, la trasparenza, la fondamentale educazione e formazione. Pensiamo all’importanza di una consapevolezza critica quando parliamo di Intelligenza artificiale e di indistinguibilità di prodotti umani o di Intelligenza artificiale, la privacy e la sicurezza. Tutte regole sulle quali si sta correttamente applicando l’Europa con l’AI Act, che classifica a seconda dei rischi l’Intelligenza artificiale e ammette o non ammette determinate estrinsecazioni dell’Intelligenza artificiale a seconda del rischio che questo comporta.
Per entrare in medias res voglio citare solo due notizie tra le tante che mi sono capitate sotto gli occhi in questi giorni. L’Associazione italiana di ematologia e oncologia pediatrica ha presentato quattro progetti che basati sull’Intelligenza artificiale mirano a diagnosi più precise e cure migliori per bambini affetti da queste patologie con possibilità di fornire terapie personalizzate che aumenteranno anche sensibilmente le possibilità di guarigione. E poi, su un fronte opposto, alcune organizzazioni umanitarie denunciano che in Iran sistemi di Intelligenza artificiale di riconoscimento facciale vengono utilizzati per identificare donne che girano senza velo per perseguirle successivamente.
Tra queste due notizie simboliche c’è una quantità enorme e sterminata di declinazioni dell’Intelligenza artificiale. Non si può tifare per l’Intelligenza artificiale o contro, pensando a questi due esempi. Bisogna trovare la linea, l’orientamento che consenta di andare più verso un aspetto dell’Intelligenza artificiale che verso l’altro. Tocca a noi, alle nostre società, attraverso le governance, padroneggiare questo processo di orientamento.
(…) Il fatto che l’Intelligenza artificiale non debba essere competitiva con l’uomo non significa assolutamente che i Paesi non debbano competere per l’Intelligenza artificiale. Nessun Paese si tirerà indietro dalla competizione, perché sappiamo tutti che l’autonomia, il processo e lo sviluppo tecnologico garantiscono il dominio geopolitico dei mercati. Nessun Paese si tirerà indietro, nemmeno il nostro Paese, né l’Europa vogliono tirarsi indietro dall’investire il massimo sforzo nella ricerca tecnologica in generale, dell’Intelligenza artificiale in particolare. Anche l’Agenzia per la cybersicurezza è pronta a fare la sua parte sotto tutti gli aspetti di questo scenario complesso.