Skip to main content

Il futuro dell’IA si disegna a Bletchley Park. Scrive Pisano

Di Paola Pisano

Prende il via l’AI Safety Summit nel Regno Unito. Sul tavolo di politici e industriali ci sono le questioni esistenziali della sicurezza nello sviluppo e la diffusione dell’intelligenza artificiale. Paola Pisano, già ministra dell’Innovazione e professoressa di Gestione dell’innovazione all’Università di Torino, mappa gli approcci delle potenze attorno al tavolo e delinea la via per una governance condivisa

La governance delle tecnologie emergenti pone un noto rompicapo: il “dilemma di Collingridge”. Nel suo libro The Social Control of Technology, pubblicato nel 1980, il ricercatore e filosofo David Collingridge teorizzava come nelle fasi iniziali del processo di innovazione – quando gli interventi e le correzioni di rotta potrebbero ancora essere facili ed economici – le ricadute di una certa tecnologia, e quindi la necessità di un cambiamento, potrebbero non essere ancora evidenti. Al contrario, quando la necessità di intervenire diventa visibile, cambiare rotta può diventare costoso, difficile e lungo.

Cento invitati selezionati si incontreranno oggi e domani all’“AI Safety Summit” a Bletchley Park, in Inghilterra, per intervenire sulle conseguenze dell’Intelligenza Artificiale prima che sia troppo tardi. Padrone di casa il primo ministro britannico Rishi Sunak. Un “discussion paper” di circa 50 pagine – “Capabilities and risks from frontier AI” – del Dipartimento per la Scienza, l’innovazione e la tecnologia britannico funge da base di partenza per le considerazioni che verranno dalla due giorni. Focus dell’incontro: i sistemi di IA specifici e potenzialmente pericolosi e i neonati large large models (modelli linguistici di grandi dimensioni, o Llm). Tavole rotonde su come rendere sicuri gli strumenti di IA, su cosa potranno fare politici, comunità internazionale, aziende tecnologiche e scienziati, lasceranno spazio alla discussione di casi pratici di applicazione dell’IA per il bene pubblico nell’istruzione.

Il Summit si concluderà con un comunicato stampa a firma, si spera, dei presenti. Ventotto i Paesi presenti, tra cui Canada, India, Corea del Sud, Giappone, Singapore, Spagna, Stati Uniti e Unione europea, Stati del Golfo, Cina e Italia, rappresentata dalla presidente del Consiglio Giorgia Meloni. Sono attesi anche dirigenti del settore tecnologico, tra cui l’ad di OpenAI Sam Altman; Elon Musk, proprietario di X (ex Twitter); il presidente di Microsoft Brad Smith; il capo di Google DeepMind, Demis Hassabis, e quello di Meta AI, Yann LeCun, oltre ai rappresentanti delle Big Tech cinesi Alibaba e Tencent e dell’Accademia cinese delle scienze (il principale think tank scientifico finanziato dallo Stato) e una delegazione del Governo cinese dal ministero della Scienza e della tecnologia.

Le differenti visioni degli invitati arricchiranno e complicheranno il Summit. Il gruppo (di cui fa parte Andrew Yao, uno dei più importanti informatici cinesi) chiederà la creazione di un organismo di regolamentazione internazionale, la registrazione e la verifica obbligatoria dei sistemi avanzati di IA, l’inclusione di procedure di “spegnimento” istantaneo e l’obbligo per gli sviluppatori di destinare il 30% del loro budget di ricerca alla sicurezza dell’IA. Richieste in linea con l’approccio del Partito comunista cinese, concentrato nel rendere la Cina una superpotenza tecnologica e nell’impiegare la tecnologia dell’IA come strumento di propaganda, sorveglianza e controllo per preservare la stabilità sociale e il proprio potere. Un approccio che garantisce un vantaggio competitivo ai Paesi like-minded occidentali: la costruzione di questi modelli linguistici di grandi dimensioni prevede una grande quantità di dati e di contenuti, e in Cina, questi contenuti devono essere filtrati in modo da essere conformi alle regole della censura. Questo limita la quantità di dati che è possibile utilizzare, creando un’opportunità che potenzialmente può essere sfruttata da Stati Uniti ed Europa.

Gli Usa arriveranno con una visione chiara sull’IA: l’“Executive order sullo sviluppo e l’uso sicuro, protetto e affidabile dell’intelligenza artificiale”, pubblicato sul sito della Casa Bianca il 30 ottobre scorso dal presidente statunitense Joe Biden. Otto principi guida e priorità che dovranno essere accolte da tutti i dipartimenti e le agenzie governative e dalla società accademica, economica e civile. Al centro la gestione delle discriminazioni che l’IA può causare, le ricadute sul mondo del lavoro e l’importanza di preservare il ruolo di leader degli Usa attraverso investimenti in formazione, attrazione di talenti e sostegno all’economia. La criticità di bloccare l’innovazione attraverso la regolamentazione, diminuendone ricadute di produttività e crescita economica del mercato americano e spuntando le armi nella competizione Usa-Cina, è fonte di preoccupazione per il governo di Washington.

Dal canto suo, l’Unione europea porterà in dote al Summit un modello orientato ai diritti dell’uomo e della donna, una visione antropocentrica dello sviluppo digitale, in cui i rischi dell’utilizzo dell’IA preoccupano tanto quanto una inadeguata e iniqua distribuzione dei vantaggi della trasformazione digitale. Rishi Sunak sembra invece più orientato a scongiurare una visione apocalittica dell’IA, in cui l’uomo perderà totalmente il controllo sulla tecnologia. Su alcuni punti più operativi e incentrati sulla governance non si può non essere d’accordo: mancano ancora standard, codici di condotta comunemente accettati, un coordinamento globale, incentivi per rendere appetibile la mitigazione e la misurazione dei rischi da parte degli sviluppatori. La concentrazione nelle mani di pochi player preoccupa il governo britannico negli ambiti della concorrenza, dell’aumento delle barriere di entrata nel settore e delle ricadute negative su attori economici minori. I dubbi sul degrado dell’informazione, sul mercato del lavoro, sull’amplificazione di bias, sull’uso duale della tecnologia e soprattutto sulla perdita del controllo da parte degli esseri umani sono il cuore del dibattito nel Regno Unito.

Come se il quadro non fosse già abbastanza complicato, nelle ore antecedenti al Summit i privati hanno fatto sentire la propria voce chiedendo maggiore attenzione verso l’ambiente, tema che sottolinea un’inclinazione favorevole di quest’ultimi alla regolamentazione – ma solo se i policy maker mostreranno elevate competenze sul tema. Perché si sa che una cattiva regolamentazione, causata dalla mancanza di conoscenza sul tema, potrebbe essere peggio di nessuna regolamentazione. Approccio elegante per convincere gli Stati a dare maggiore spazio al mondo privato sulle tematiche di governance. A ogni modo, tutti sono d’accordo su una cosa: trasparenza e responsabilità sono i criteri che dovrebbero guidare la creazione di una regolamentazione dell’IA che possa evitare scenari da incubo e diffondere il più possibile i benefici di questa nuova tecnologia.

La sfida più grande risiede nel riuscire a spostarsi dai principi alla creazione di una governance anticipatoria, globale, multistakeholder, integrata a livello di singolo Paese e compatibile con le visioni differenti dei diversi governi. Una governance resa operativa da nuovi organismi di definizione di standard internazionalmente accettati e di monitoraggio dello sviluppo e dell’uso dei sistemi di IA, sostenuta da incentivi economici, linee guida e normative che dovranno anticipare i tempi ed essere resistenti all’obsolescenza. Chi riuscirà a guidare questo processo non parteciperà solo ad un dibattito sul futuro di una tecnologia, ma sarà responsabile del futuro della nostra società.

×

Iscriviti alla newsletter