Skip to main content

A che punto è la regolamentazione globale dell’Intelligenza artificiale 

Di Gaetano Pellicano

La sfida comune degli anni che verranno sarà identificare un sistema globale di responsabilità condivise per proteggere le persone, gli investimenti e la leadership delle nostre società

Il segretario di Stato americano Antony Blinken, intervenuto il 31 maggio all’ del Eu-Us Trade and Technology Council (Ttc), ha riconosciuto un ruolo fondamentale “agli innovatori e agli investitori che guidano il processo [dell’innovazione tecnologica]”. I governi devono “facilitare, catalizzare, qualche volta semplicemente lasciare spazio. Quello che conta è che i governi proteggano gli standard che scegliamo per noi stessi e che la società vuole e richiede. Questo presuppone un arduo esercizio di equilibrio.”  Gli innovatori innovano, i governi facilitano e impongono standard etici e di sicurezza.

Due settimane prima il capo di un’azienda che cresce a ritmi vorticosi nel campo dell’intelligenza artificiale (AI) aveva chiesto al proprio governo di limitarne le attività. Il 16 maggio Sam Altman, il capo di OpenAI, ha invocato davanti al Senato Usa una gestione attenta dei rischi derivanti dallo sviluppo dell’AI. Lo stesso Altman insieme a più di 300 altri esperti ha firmato l’appello, rilanciato da Center for AI Safety il 30 maggio, che si spinge a paventare “il rischio estinzione” per la razza umana alla stregua delle pandemie e della guerra nucleare. In parallelo moniti, previsioni infauste, timori diffusi si sono moltiplicati sui media di tutto il mondo avendo come primo risultato una campagna di comunicazione globale che ha acceso le aspettative di trasformazione epocale. Prima conseguenza: centinaia di milioni di persone in tutto il mondo hanno già provato e molte usano regolarmente ChatGPT e tante altre piattaforme che stiamo imparando a conoscere. Scrivono discorsi, preparano presentazioni, aggiungono funzioni ai browser tradizionali per rendere più efficiente la navigazione.

Tra i grandi player globali l’Unione europea è stata la prima a prendere l’iniziativa di una normativa quadro, l’AI Act, approvato dal Parlamento europeo il 14 giugno e atteso nella sua versione finale entro l’anno.  Nessuna sorpresa, il sistema politico e sociale europeo è per tradizione quello in cui innovazione e riduzione dei rischi da parte dell’autorità pubblica vengono considerati un binomio imprescindibile. Dal canto loro, gli Usa hanno acquisito negli anni un vantaggio competitivo considerevole. Il governo federale statunitense si è assegnato un ruolo giuda nello sviluppo dell’AI, stimolando da un lato le aziende a investire nel rispetto dei propri criteri etici e delle norme in essere e dall’altro la macchina pubblica ad acquistare e sviluppare servizi innovativi.

Quali sono oggi le forze in campo in un settore in cui la sfida per la leadership è appena cominciata? Secondo l’AI Index Report 2023 di Stanford University, nel 2022 il settore privato negli Stati Uniti d’America ha investito in AI piu’ di 47 miliari di dollari, in netta diminuzione rispetto ai 72 miliardi del 2021, ma ben al di sopra dei competitor. Infatti, nello stesso anno in Cina i privati hanno investito circa 13 miliardi, nella Ue 7 miliardi, in Gran Bretagna 4 miliardi e in Israele 3 miliardi. Sempre nel 2022, negli Usa sono state create 542 nuove aziende focalizzate su AI, 160 in Cina, 99 in UK, 44 in Francia.

Il divario tra Usa e resto del mondo accumulato nel decennio 2013-22 è stato ancora più ampio. Negli Usa gli investimenti privati sono stati quasi 249 miliari di dollari per un totale di 4.643 nuove aziende, in Cina 95 miliardi con 1.337 start up, in UK 18 miliardi e 630 nuove aziende, in Germania e Francia 7 miliardi di investimenti per ciascun Paese con un totale di 583 start up.

Investimenti di entità considerevole e la percezione di un potenziale dirompente non solo sul mercato del lavoro ma sull’insieme dei sistemi produttivi hanno enfatizzato una crescente percezione dei rischi. Un sondaggio condotto da McKinsey nel 2022 ha rivelato che il 59 percento dei partecipanti considerava la sicurezza cyber a rischio, il 45 percento temeva che l’AI potesse violare il sistema regolatorio, il 40 percento considerava la privacy a rischio e il 37 percento temeva per la scara trasparenza dei sistemi decisionali. Questa percezione si riflette anche nella crescita delle cause giudiziarie motivate dall’utilizzo dell’AI che negli Usa sono state 17 nel 2016 e 110 lo scorso anno di cui il 44 percento in campo finanziario e nei servizi professionali, il 16 percento nel settore media e culturale e il 13 percento nel settore pubblico.

Sino ad oggi, la gestione del rischio negli Usa e in Europa è stata fatta con approcci diversi, pur in presenza di alcuni principi di base condivisi. Con l’AI Act l’Unione europea introdurrà norme se sulla qualità dei dati, sulla trasparenza e sulla supervisione umana e alle responsabilità. Al cuore della normativa vi sarà l’introduzione di un sistema di classificazione dei livelli di rischio per la salute, la sicurezza e i diritti fondamentali delle persone: inaccettabile, elevato, limitato e minimo.

I sistemi di AI ad alto rischio, ad esempio i veicoli autonomi, i dispositivi medici e macchinari per infrastrutture critiche, saranno consentiti a patto che sviluppatori e gli utenti effettuino test rigorosi, forniscano un’adeguata documentazione della qualità dei dati e identifichino un quadro di responsabilità che preveda la supervisione umana.

Oltre Atlantico, l’Amministrazione Biden ha adottato due ordini esecutivi dedicati all’AI nel 2019 (EO 13859 Maintaining American Leadership in Artificial Intelligence) e nel 2023 (EO 14091 Further Advancing Racial Equity and Support for Underserved Communities Through the Federal Government). Il secondo provvedimento ordina alle agenzie federale di garantire il rispetto dei diritti civili e del principio di equità nell’adozione di sistemi di AI. Il primo stabilisce cinque principi a cui deve conformarsi il governo federale. Primo tra tutti la promozione del progresso tecnologico stimolando la ricerca scientifica, la competitività economica e la sicurezza nazionale. Seguono lo sviluppo di standard tecnici per favorire sperimentazione e impiego sicuro; la formazione dei lavoratori con le competenze necessarie, la fiducia del pubblico e la protezione delle libertà civili, della privacy e dei valori americani. Infine, obiettivo del governo è consolidare mercati internazionali aperti per le aziende americane, proteggendo il vantaggio tecnologico e impedendo l’acquisizione delle tecnologie critiche da parte di concorrenti strategici e nazioni avversarie.

Il 23 maggio il governo federale ha, per ultimo, annunciato un’iniziativa per favorire la ricerca, lo sviluppo e l’implementazione di un’AI “responsabile che protegga i diritti e la sicurezza delle persone e produca risultati concreti per il popolo americano.”  Si tratta di un piano strategico di ricerca e sviluppo sulla base di nove linee di intervento, di una consultazione pubblica su come mitigare i rischi e di un rapporto su opportunità e rischi derivanti dall’utilizzo dell’AI nel campo dell’istruzione. Non solo regolatore, quindi, lo stato scende in campo per promuovere investimenti e leadership a livello internazionale, anche attraverso partnership su ambiente, sanità e manifattura con cui definire standard e linee guida comuni.

Ue e Usa stanno lavorando a un quadro di partenariato su AI per identificare approcci comuni nell’ambito del Ttc. I campi su cui si lavora sono standard volontari per garantire la trasparenza, la valutazione dei rischi e i requisiti tecnici per le aziende del settore. Si punta, così, a sviluppare i principi globali adottati dall’Organizzazione per la Cooperazione e lo sviluppo economici (OCSE) nel 2019 e aggiornarli rispetto alle novità della cosiddetta generative AI, vale a dire quelli sistemi che consentono di creare automaticamente contenuti originali di vario genere.

La roadmap adottata a dicembre dal Ttc è centrata sull’adozione di un approccio comune alla gestione dei rischi. Da parte americana il punto di partenza è il Risk Management Framework (RMF) approvato dal National Institutes of Standards and Technology (NIST) a gennaio. Il RMF fornisce a individui e organizzazioni una metodologia di gestione dei rischi per lo sviluppo e l’uso responsabile dell’AI. All’interno di ogni organizzazione devono essere identificate cinque funzioni essenziali per: sviluppare una cultura del rischio, mappare l’organizzazione e identificare i rischi, monitorare e valutare e, per finire, prioritarizzare e gestire i rischi sulla base dell’impatto atteso.

A ottobre, il Blueprint for an AI Bill of Rights ha identificato un insieme di diritti di ciascun cittadino che vanno promossi in ogni circostanza. Un vero e proprio decalogo a cui informare le regole sull’AI: le persone devo essere protette da sistemi non sicuri o inefficaci, non devono subire discriminazioni ingiustificate da parte degli algoritmi, devono essere protetti da pratiche di abuso dei dati avendo la possibilità di decidere come vengono utilizzati i propri dati, devono essere consapevoli dell’utilizzo di un sistema automatizzato e delle metodologie che producono certi risultati, devono essere in grado di rifiutare l’utilizzo dei dati e , se necessario, devono avere accesso a una persona in grado di valutare e risolvere rapidamente i problemi si incontrano.

Gestione pragmatica dei rischi, diritti delle persone, e incentivi agli investimenti pubblici e privati. Un approccio multilivello che ha garantito, come detto, agli Stati Uniti un significativo vantaggio competitivo. L’avvento dell’AI generativa ha portato, di recente, alcuni dei protagonisti della sfida dell’AI a richiedere ulteriori limiti e regole comuni. Un appello che vede l’Europa in prima linea a formulare un quadro completo che è uno dei punti di partenza della partnership con gli Stati Uniti. La convergenza su un codice di condotta comune per i due protagonisti del blocco occidentale è, comunque, la prospettiva che più interessa a chi sta investendo massicciamente su un’innovazione rapida e radicale. Aziende e decisori pubblici invocano una partnership pubblico-privato per declinare gli standard generali in pratiche aziendali e in una gestione della cosa pubblica rispettosa dei diritti personali. La sfida comune degli anni che verranno sarà identificare un sistema globale di responsabilità condivise per proteggere le persone, gli investimenti e la leadership delle nostre società.

*Le dichiarazioni e le opinioni contenute in questo articolo sono espresse a titolo personale

×

Iscriviti alla newsletter