Skip to main content

AI diplomacy, serve un piano di investimenti all’altezza delle aspirazioni

Di Gaetano Pellicano

L’AI impatta direttamente sul potere degli Stati nazionali, modificando gli equilibri di potere. Stati Uniti e Unione europea hanno intrapreso un sentiero comune di regolamentazione, ma anche con la Cina bisognerà ricercare un approccio condiviso per la prevenzione di rischi letali. L’analisi di Gaetano Pellicano, political advisor, esperto di Intelligenza artificiale e change management

A leggere delle strategie sull’Intelligenza artificiale (AI) di Francia, Germania, Italia e Gran Bretagna si fatica a trovare grandi differenze. Gli europei vogliono formare esperti, attrarre talenti, sviluppare la domanda di servizi innovativi, stimolare la ricerca e il trasferimento tecnologico. Quello di cui non si trova traccia è un piano di investimenti all’altezza delle aspirazioni nazionali.

Il richiamo a un sistema di governance globale e alla cooperazione internazionale è, invece, l’elemento su cui si insiste maggiormente. Davanti all’Assemblea generale delle Nazioni Unite il 20 settembre, la presidente del Consiglio Giorgia Meloni ha lanciato un appello per una nuova “algoretica”, un’etica degli algoritmi a fronte degli “enormi rischi che l’AI porta con sé”. Ha concluso “non possiamo commettere l’errore di considerare questo dominio una sorta di “zona franca” senza regole. Servono meccanismi di governance globale capaci di assicurare che queste tecnologie rispettino barriere etiche.” Il presidente statunitense Joe Biden ha espresso la volontà di adottare regole che garantiscano la sicurezza dei sistemi di AI, in collaborazione con altri leader di tutto il mondo, inclusi i competitor.

L’Unione europea ha giocato d’anticipo nel settore digitale adottando tre normative pioneristiche: General data protection regulation, Digital service act e Digital markets act. Tre regolamenti diventati un modello per molti Paesi del Global South e non solo che spingono gli operatori a riconsiderare il proprio modus operandi. Stesso approccio si sta tentando con l’AI Act, approvato dal Parlamento europeo il 14 luglio, dovrebbe essere varato definitivamente nei prossimi mesi. In tutto quattro regolamenti, concepiti ormai diversi anni fa, di cui non si conoscono del tutto le modalità di applicazione. Gli esperti temono possano arrivare in affanno rispetto alla crescita vorticosa dei Large Language Model di cui ChatGpt è l’esempio più noto a livello mondiale.

Sarà l’Europa decisiva per il futuro dei servizi digitali, inclusa l’AI, usando la regolamentazione? Qualcuno ritiene che leader del processo di regolamentazione sarà chi controlla la rete, riconfigurata in seguito agli attacchi terroristici dell’11 settembre 2001. Da quel momento gli Stati Uniti d’America sono diventati il centro di un processo di gestione dei flussi informativi e monitoraggio dei dati finanziari con una crescita senza eguali degli investimenti e dei prodotti disponibili. Il loro margine di vantaggio nella competizione per l’innovazione sembra oggi incolmabile.

Il vantaggio, d’altro canto, diventa superiorità strategica. AI è, infatti, una tecnologia cosiddetta dual use, vale a dire ha rilevanza anche per la sua dimensione militare e strategica. In concreto, intacca o moltiplica il potere degli Stati, delle alleanze, delle organizzazioni. Non essendo disponibile in maniera uniforme, dà ai Paesi più avanti nell’innovazione un vantaggio strategico che crescere esponenzialmente. Modifica rapidamente l’equilibrio di potere tra le nazioni, incrementando il gap tra Paesi forti e Paesi deboli.

La questione si complica se si considera che il know-how e la capacità di innovare risiedono in larga misura nelle aziende digitali multinazionali. La loro crescita è stata incoraggiata negli Usa dopo il 2001 per garantire la sicurezza nazionale attraverso network digitali ben monitorati dal governo. L’AI, quindi, modifica l’equilibrio del potere anche all’interno degli Stati a favore delle aziende tech la cui influenza supera i confini nazionali.

Gli Stati in cui risiedono le aziende tech più efficaci nell’innovazione ne escono comunque rafforzati. Questo vale soprattutto per gli Stati Uniti, un Paese in cui il potere dello Stato federale non è stato utilizzato fino a oggi tanto per limitare le Big Tech, ma per accompagnarne la crescita, stimolando comportamenti responsabili. È stato il Segretario di Stato Anthony Blinken a settembre a ricordare che “stimolare l’uso dell’IA è fondamentale per preservare il vantaggio competitivo dell’America in questa tecnologia e anche promuovere l’innovazione che avvantaggia le persone in tutto il mondo”.

Alle sette aziende americane – Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – che a gennaio si erano impegnate ad assumere impegni volontari per sviluppare sistemi di AI sicuri e affidabili se ne sono aggiunte altre otto a settembre, tra cui Adobe, IBM, Nvidia, Palantir e Salesforce (Top tech firms sign White House pledge to identify AI-generated images, Cat Zakrzewski, Washington Post, 21 Luglio 2023).

La lista degli impegni è alquanto ambiziosa e include: a) test efficaci per prevenire rischi riguardanti la salute, la sicurezza fisica e cyber, b) la condivisione con le altre aziende e i governi di informazioni relative ai rischi e a nuovi attori che violano o tentano di violare gli standard di sicurezza, c) la protezione della proprietà intellettuale sui modelli, d) investimenti in cyber sicurezza, e) il monitoraggio e la condivisione di informazioni in merito alle vulnerabilità rilevate, f) l’identificazione di contenuti audio e video prodotti dall’AI, g) la condivisione di informazioni in merito alla correttezza dei dati, alle influenze non dichiarate che possono condizionare l’opinione pubblica, alle faziosità, alle discriminazioni e alla violazione della privacy, h) lo sviluppo di sistemi con cui affrontare i problemi più complessi della società.

L’approccio dal basso mira, così, a consolidare un network di produttori e distributori di AI che si assumono la responsabilità di sviluppare soluzioni compatibili con i valori liberal-democratici e con la sicurezza degli individui e della società. A fine settembre anche il Canada ha visto alcune aziende attive su AI generativa firmare un codice di condotta simile a quello statunitense (Ottawa rolls out voluntary code of conduct for AI as ‘fear’ persists over its use, Christopher Reynolds, Toronto Star, 27 settembre 2023). In Europa, invece, sono stati Parlamento, Consiglio e Commissione a muoversi per definire dall’alto regole rivolte principalmente a player esterni, non avendo al proprio interno aziende che per la loro presenza di mercato e per i loro investimenti possano promuovere un’autoregolamentazione.

Oltre Atlantico le aziende leader propongono al governo la propria autoregolamentazione e lo stato federale mantiene approcci settoriali differenziati. In Europa la Ue intende imporre regole ad aziende che si trovano principalmente al di fuori del proprio territorio.  È ora auspicabile che i due player occidentali ricerchino un approccio comune. Se per un verso Ue e Ua collaborano nel quadro del Consiglio su Commercio e Tecnologie per identificare standard comuni, non è immaginabile che possano congelare l’innovazione in attesa di avere trovato una piattaforma normativa comune per tecnologie che continuano a cambiare di giorno in giorno. Le basi da cui si è partiti sono, per gli Usa l’autoregolamentazione delle aziende multinazionali e l’AI Risk Management Framework del Dipartimento del Commercio Usa, per la Ue l’AI Act.

Ben diverso è il caso della Cina dove lo Stato e, in particolare il Partito Comunista, promuove un approccio top down per il quale è possibile solo ciò che è autorizzato e che non metta in discussione il potere centrale.  Un esempio è la cosiddetta versione cinese di ChatGpt, Ernie.  Provare a porre domande imbarazzanti per il regime cinese rivela come si possano affrontare esclusivamente temi non sensibili, secondo una narrativa non sgradita.

La competizione tra i due grandi player, Usa e Cina, non conosce sosta e per certi versi ricorda la corsa agli armamenti nucleari al tempo della Guerra Fredda. Il 9 agosto il presidente Biden ha firmato un ordine esecutivo per limitare le il trasferimento di hardware e software che potrebbe favorire l’avversario cinese, attraverso limiti agli investimenti su semiconduttori, tecnologie quantistiche alcuni sistemi basati su AI. Fuori dal controllo dell’autorità pubblica restano, ovviamente, i software opensource che sempre di più si diffondono a macchia di olio. Non è da escludere, però, che un giorno anche Usa e Cina possano raggiungere un accordo per la riduzione dei rischi anche in un quadro competitivo, come già avvenuto tra Usa e Urss durante la corsa agli armamenti nucleari. Sul tema si può leggere How politics and business are driving the AI arms race with China, Will Henshall, Bulletin of the Atomic Scientists del 12 Maggio 2023, e U.S. seeks talks with China on military AI amid tensions, Ryo Nakamura, Nikkei Asia del 14 giugno 2023.

Nel definire una propria AI diplomacy, una media potenza come l’Italia potrebbe adottare tre obiettivi: la protezione dei diritti e della sicurezza dei propri cittadini messi in discussione da attori statali e da aziende multinazionali il cui potere cresce in maniera esponenziale, lo sviluppo di alleanze per favorire l’accesso all’innovazione, la riduzione dei disequilibri nella distribuzione del potere a livello globale ed europeo. Con un approccio improntato al realismo, va riconosciuto che minori sono le risorse di AI sviluppate o disponibili all’interno di uno Stato, maggiore è l’esigenza di partnership con Paesi forti per accedere alle loro risorse e promuovere una regolamentazione condivisa. Con Paesi con caratteristiche simili si possono promuovere progetti comuni e sinergie nella ricerca e negli investimenti innovativi. Tutto questo tenendo conto della necessità di far crescere rapidamente gli investimenti in capitale umano di qualità in ambito accademico e aziendale, senza il quale ogni ambizione sarebbe velleitaria.

L’AI impatta direttamente sul potere degli Stati nazionali, modificando gli equilibri di potere. Stati Uniti e Unione europea hanno intrapreso un sentiero comune di regolamentazione, ma anche con la Cina bisognerà ricercare un approccio condiviso per la prevenzione di rischi letali. Attraverso l’AI diplomacy, le medie potenze tentano di rimanere nel gruppo di testa dello sviluppo dell’AI, ma la sfida principale per potere sedersi al tavolo è sviluppare rapidamente i propri talenti e mantenere una leadership in grado di mobilitare e finalizzare le risorse disponibili. Una sfida che segnerà il benessere di tutti e la sostenibilità del modello europeo per il prossimo decennio.

*Le dichiarazioni e le opinioni contenute in questo articolo sono espresse a titolo personale

 



×

Iscriviti alla newsletter