Skip to main content

Usa, Ue, Uk, Cina. Come si muovono i governi per imbrigliare l’IA

Mentre i legislatori europei fanno un altro passo verso la regolamentazione dell’intelligenza artificiale, la Casa Bianca si muove per farla rientrare nell’arsenale degli strumenti di sicurezza nazionale – una classificazione che vuole mettere in riga le aziende. Tutto pronto per il Summit nel Regno Unito, a cui dovrebbe partecipare anche Pechino. E il G7…

Sarebbe “un errore imperdonabile” non regolamentare l’intelligenza artificiale. L’urgenza espressa nei giorni scorsi da Giorgia Meloni, presidente del Consiglio, è ampiamente condivisa nel resto del mondo. Le Nazioni Unite hanno appena creato un organo consultivo per l’IA, ma – come per altre materie digitali – i Paesi vanno in ordine sparso. È anche per queste che cresce l’anticipazione per l’AI Safety Summit nel Regno Unito, il primo di portata globale sulla sicurezza dell’IA, in agenda per il primo novembre: il vicepremier britannico Oliver Dowden ha confermato che il suo governo prevede una partecipazione della Cina.

In questo contesto, dove i progressi delle applicazioni IA sono pari solo al nervosismo di chi guarda con preoccupazione al loro impatto sul mondo, i legislatori sono sensibili alla pressione e non stanno certo con le mani in mano. Spicca l’esempio degli Stati Uniti, che sono tra i più restii nel regolamentare il settore tecnologico, fiore all’occhiello nazionale. Prima dell’estate, e dopo aver incontrato esperti e rappresentanti aziendali, il presidente Joe Biden avvertito le aziende tech: “hanno la responsabilità” di assicurarsi che i loro prodotti IA “siano sicuri”.

Potrebbe arrivare una svolta in tal senso: stando al Wall Street Journal la Casa Bianca sarebbe sul punto di classificare l’IA come strumento di sicurezza nazionale. Biden “dovrebbe firmare la prossima settimana un executive order” ponendo le basi per inserire l’IA nell’arsenale tecnologico della nazione – e facendo pressione sulle aziende affinché sviluppino la tecnologia in modo sicuro. L’ordine, che non è ancora finalizzato, “mira a stabilire delle linee guida per l’uso dell’IA da parte delle agenzie federali, sfruttando al contempo il potere d’acquisto del governo per indirizzare le aziende verso quelle che considera le best practice”.

La fonte del Wsj ha spiegato che l’ordine esecutivo vuole utilizzare il National Institute of Standards and Technology “per rafforzare i parametri di riferimento del settore in materia di test e valutazione dei sistemi di IA”, ma anche “formalizzare la supervisione del governo sugli impegni in materia di IA assunti a luglio dalle principali aziende tecnologiche statunitensi, in particolare per quanto riguarda la sicurezza nazionale”. Rimane un punto interrogativo sulla portata dei poteri di applicazione della Casa Bianca, che dovrà interfacciarsi con il Congresso.

Trattare l’IA come materia di sicurezza nazionale significa riconoscerne il rischio. E l’approccio basato sul rischio è esattamente quello che innerva fin dagli albori il progetto legislativo dell’Unione europea: l’AI Act, immaginato nel 2020, approvato a stragrande maggioranza dal Parlamento europeo a giugno e in fase di perfezionamento. Anche qui si registrano progressi: mercoledì i legislatori hanno raggiunto un accordo su uno dei punti più contenziosi della bozza, l’articolo 6, che delinea i tipi di sistemi di IA che saranno definiti “ad alto rischio” e quindi saranno soggetti a un maggiore controllo normativo.

Dragos Tudorache e Brando Benifei, europarlamentari e co-relatori dell’AI Act, hanno dichiarato mercoledì a Reuters di essere fiduciosi su un accordo in tempo per l’appuntamento di dicembre nel trilogo (il processo di negoziazione tra Parlamento europeo, Commissione europea e Consiglio europeo). “Abbiamo fatto progressi significativi”, ha detto Benifei, capodelegazione del Partito democratico a Strasburgo. “Se il Consiglio mostrerà un approccio costruttivo, potremmo approvare (a livello di trilogo) entro la fine dell’anno”, ha aggiunto. Ciò significa rendere l’AI Act legge prima che la campagna elettorale per le europee di giugno ne deragli il corso.

Insomma, al Summit nel Regno Unito – che si terrà a Bletchley Park, dove Alan Turing e la sua squadra svilupparono i progenitori dei computer per decifrare la crittografia tedesca Enigma e cambiare il corso della Seconda guerra mondiale – ci sarà tantissima carne al fuoco. Il primo ministro britannico Rishi Sunak ha detto giovedì che solo i governi possono affrontare i rischi posti dall’IA, una tecnologia che, a suo dire, “potrebbe facilitare la costruzione di armi chimiche o biologiche, diffondere la paura e, nel peggiore dei casi, sfuggire al controllo umano”. La sua speranza è che i partecipanti al summit possano concordare sulla natura dei rischi e istituire un ente globale per valutarli, come ha intenzione di fare a livello nazionale la stessa Londra.

In parallelo, i funzionari del G7 stanno lavorando per presentare delle linee guida generali entro dicembre. “Stiamo lavorando [urgentemente] su una serie di principi guida internazionali e su un codice di condotta per le nazioni organizzate che sviluppano sistemi avanzati di IA, compresa l’IA generativa”, ha spiegato di recente il primo ministro giapponese Fumio Kishida. Tutto dovrebbe essere pronto in tempo per la presidenza italiana del G7, che Meloni ha promesso di utilizzare per spingere sulla governance dell’IA – e assicurarsi che rimanga a servizio dell’essere umano.


×

Iscriviti alla newsletter