A un anno dall’approvazione, l’AI Act resta un modello ambizioso per regolare l’intelligenza artificiale. L’Europa punta a bilanciare innovazione e diritti fondamentali, ma le sfide non mancano: dalla sicurezza cibernetica, che mina la fiducia nelle applicazioni critiche, alla necessità di aggiornare dinamicamente la normativa. L’analisi di Stefano Mele, avvocato, partner e responsabile del dipartimento Cybersecurity & Space economy law presso Gianni & Origoni
L’AI Act rappresenta un tentativo ambizioso dell’Unione europea di regolamentare l’intelligenza artificiale garantendo al contempo la sicurezza e il rispetto dei nostri diritti fondamentali. In una frase l’AI Act rappresenta l’interfaccia tra l’innovazione tecnologica e i nostri valori democratici. Tuttavia, la sicurezza cibernetica delle intelligenze artificiali generative e delle applicazioni critiche pone alcune sfide significative. Uno dei principali problemi riguarda, ovviamente, la vulnerabilità dei modelli di IA agli attacchi cibernetici. I sistemi di intelligenza artificiale generativa, come i modelli linguistici avanzati, possono essere manipolati tramite tecniche di data poisoning (“avvelenamento dei dati”) o di adversarial machine learning, dove input appositamente progettati inducono questi sistemi a comportamenti non voluti.
Nel contesto delle applicazioni critiche, come la gestione delle infrastrutture energetiche o dei trasporti, questi attacchi possono avere conseguenze devastanti. Un altro rischio rilevante riguarda la dipendenza da dati spesso particolarmente riservati per l’addestramento dei modelli. La protezione di questi dati è cruciale non solo per la privacy individuale, ma anche per evitare impatti su scala molto più ampia. Infine, la complessità dei sistemi di intelligenza artificiale rende difficile determinare e mitigare i rischi cibernetici. Il principio di trasparenza sancito dall’AI Act, ad esempio, potrebbe scontrarsi con la realtà di algoritmi che operano come black box, rendendo arduo individuare vulnerabilità e creare misure di sicurezza adeguate. L’AI Act, peraltro, si inserisce in un panorama globale in cui Unione europea, Stati Uniti e Cina stanno sviluppando modelli normativi profondamente diversi. L’Europa punta a stabilire standard rigorosi, basati su un equilibrio tra innovazione tecnologica e protezione dei diritti fondamentali. Questa strategia è cruciale per consolidare la sua leadership normativa a livello globale.
Tuttavia, il ruolo strategico dell’Europa comporta rischi e opportunità. Tra le opportunità, c’è sicuramente la possibilità di definire regole che diventino uno standard di riferimento per gli altri Paesi, simile a quanto avvenuto con il Gdpr nel campo della protezione dei dati personali. Questo potrebbe non solo rafforzare la sovranità tecnologica europea, ma anche favorire lo sviluppo di un ecosistema industriale competitivo e rispettoso dei valori democratici. Dall’altra parte, invece, appare evidente il rischio che regole troppo rigide possano mettere l’Europa in una posizione di svantaggio competitivo rispetto agli Stati Uniti, dove l’approccio normativo è più permissivo, e alla Cina, che adotta una regolamentazione fortemente centralizzata, ma focalizzata sull’innovazione rapida.
Un ulteriore elemento centrale dell’AI Act è anche il mantenimento del controllo umano sui sistemi di intelligenza artificiale: un principio particolarmente rilevante nei settori strategici come le infrastrutture critiche. Tradurre questa visione in meccanismi concreti richiede, però, misure specifiche. In primo luogo, è essenziale implementare sistemi di monitoraggio continuo che consentano agli operatori umani di intervenire in caso di anomalie o comportamenti imprevisti dell’IA. Ciò potrebbe includere la creazione di “pulsanti di emergenza” (kill switch) per disattivare i sistemi di IA in situazioni di crisi. Inoltre, potrebbe essere necessario stabilire protocolli chiari di accountability. Questi dovrebbero includere la tracciabilità delle decisioni prese dai sistemi di intelligenza artificiale, garantendo che sia sempre possibile identificare chi è responsabile in caso di danni o malfunzionamenti. In ambiti strategici, inoltre, potrebbe essere utile introdurre certificazioni obbligatorie per i fornitori di tecnologie e audit periodici sui sistemi impiegati. Così come un ulteriore passo – questa volta certo – consiste nella formazione degli operatori umani, che devono essere in grado di comprendere e gestire i sistemi di IA, evitando di delegare completamente il processo decisionale alla macchina. Mi piace spesso pensare, in questo contesto, all’esigenza di creare nell’IA una “riserva di umanità”.
La rapidità con cui l’intelligenza artificiale evolve richiede, infine, un approccio normativo dinamico. L’AI Act dovrebbe, quindi, prevedere meccanismi che consentano aggiornamenti rapidi in risposta a nuove minacce o alle inevitabili e dirompenti innovazioni tecnologiche del prossimo futuro. Parallelamente, l’Europa deve promuovere iniziative per sostenere la competitività industriale. Ciò include il finanziamento di programmi di ricerca e sviluppo, la creazione di poli tecnologici per l’IA e il sostegno alle start up innovative. In questo contesto, la collaborazione pubblico-privato deve svolgere un ruolo decisivo.
Un altro aspetto cruciale è il dialogo internazionale. L’Europa deve intensificare la cooperazione con i propri partner globali – anzitutto, quindi, con gli Stati Uniti – per evitare la frammentazione normativa e promuovere standard condivisi. Così come, al contempo, deve proteggere i propri interessi strategici, impedendo che tecnologie sviluppate all’interno dell’Ue siano sfruttate in modo improprio da attori esterni. L’AI Act, in conclusione, è una pietra miliare nel percorso verso una regolamentazione responsabile dell’intelligenza artificiale. Tuttavia, la sua efficacia dipenderà dalla capacità dell’Europa di affrontare le sfide della sicurezza cibernetica, mantenere una leadership normativa globale e promuovere un ecosistema tecnologico competitivo. Solo con un approccio flessibile e lungimirante sarà possibile coniugare innovazione e protezione dei diritti fondamentali, per costruire un futuro in cui l’IA sia davvero al servizio dell’umanità.
Formiche 210