Protezione dei dati (che è protezione dei processi democratici), riduzione dei gap di sviluppo e un’agenzia internazionale: il professore Lapenta (John Cabot) ragiona su come governare l’esplosione dell’AI al fine di gestire il rischio e sfruttarne l’enorme potenzialità trasformativa
“È come se ci trovassimo in mezzo a un’esplosione”: Francesco Lapenta è founding director dell’Institute of Future and Innovation Studies della John Cabot University di Roma, e spiega così l’evoluzione dell’intelligenza artificiale a cui stiamo assistendo. “E però – continua in una conversazione con Formiche.net – in questo momento è come se tutto si muovesse al rallentatore, dunque immaginiamo ancora di poter gestire gli effetti di quest’esplosione, ma prima o poi le cose andranno a velocità reale, e a quel punto ci renderemo conto che la deflagrazione è già avvenuta”.
E uno dei campi in cui l’esplosione potrebbe far sentire maggiormente il suo effetto è quello della disinformazione, che da anni erode i sistemi democratici, e che con l’AI generativa potrebbe ricevere un boost – d’efficacia ed efficienza, di diffusione e realismo. Tema che verrà trattato lunedì 20 maggio, nell’evento internazionale co-organizzato dall’instituito di Lapenta, dal Guarini Institute della John Cabot e dal Centro Studi Americani.
Il rischio è di non riuscire più a controllare gli effetti dell’impeto con cui l’AI si sta propagando. Ed è per questo che stiamo assistendo a un forte interessamento da parte innanzitutto dei governi, che trasmettono ai media mainstream tale esigenza. Per il docente si è creato un incastro perfetto tra comprensione maggiore della teoria della complessità (frutto anche del Butterfly Effect visto con la pandemia), valore della gestione del rischio, opportunità e sfide del digitale. “Tutto questo ha portato a una maggiore consapevolezza sul tema, con gli esperti che hanno finalmente conquistato il loro ruolo di esperti e il ritorno dello studio della filosofia, che trova un applicato nella tecnologia”. Le relazioni internazionali seguono.
Ne sono esempio il recente incontro tra Stati Uniti e Cina, pensato per cercare un terreno di dialogo e confronto al fine di raggiungere regolamenti o termini di utilizzo più o meno condivisi (sarà mai possibile?). Continuando con gli esempi, è stato molto chiaro il prefetto Bruno Frattasi, direttore dell’Autorità nazionale per la cybersicurezza quando l’altro ieri presiedendo il Gruppo di Lavoro G7 sulla Cybersecurity ha detto: “L’intelligenza artificiale è il tema centrale della presidenza italiana del G7”.
Nei fatti, anche lo scorso anno l’AI aveva avuto un posto apicale tra le priorità del gruppo, tanto che dal G7 nipponico uscì la cosiddetta “Dichiarazione di Hiroshima”, un codice di condotta condiviso dalle sette più grandi economie occidentalizzate. C’è un impegno, quasi nevrotico per certi versi, che esperti come Lapenta – attivi da anni sul tema – osservano con attenzione e compiacimento: “Ce ne accorgevamo già anni fa, era il 2006 quando si iniziava a capire che l’AI stava arrivando, mancavano gli applicativi ma era ovvio che sarebbe stato solo questione di qualche anno, di aspettare lo sviluppo tecnologico adeguato”.
Quando si parla di intelligenza artificiale molto spesso si è portati a evidenziarne i rischi con timore, e la disinformazione è in cima alla lista (ma d’altronde è fisiologicamente umano che le innovazioni comportino qualche genere di paura), al pari delle opportunità. Ed è per questo che sembra necessario lo sviluppo di un quadro di condotta, di cogestione, di livello internazionale per poter andare anche oltre. Cosa fare e come? “Innanzitutto dobbiamo pensare in modo sistemico”, risponde il docente della John Cabot.
“La bomba è esplosa e iniziamo a vedere le reazioni: chi è più allenato è più abile a gestire la situazione, e infatti ha già in qualche modo iniziato anche a proteggersi. Per esempio, l’Europa ha creato nel corso degli anni una società basata sulla gestione del rischio, e infatti ha reagito finora nel modo migliore all’esplosione dell’AI; primi principi, prime regole, primo AI Act”. I ministri degli Esteri riuniti a Strasburgo per il Consiglio d’Europa hanno adottato venerdì il primo trattato internazionale giuridicamente vincolante, che si occuperà di garantire il rispetto dei diritti umani, dello stato di diritto e della democrazia nell’utilizzo di sistemi basati sull’intelligenza artificiale.
E quindi l’Ue ha risposto in modo veloce (e la velocità è anche parte dell’efficacia), però non c’è una gestione uniforme. “Esattamente, tutt’altro: ci sono società che vengono e verranno travolte, come quelle in via di sviluppo, perché diventeranno test-bed di tutti gli applicativi. Gli Stati Uniti poi sono su una posizione particolare: vogliono sviluppare senza regole, perché sanno che questo crea vantaggi, ma sanno anche che la bomba è esplosa e quindi sono consapevoli che devono proteggersi. La struttura statunitense ha capito benissimo il rischio, e sta agendo in modalità a due tempi: vuole permettere al proprio ecosistema innovativo di dominare, e però pensa legislazioni per non restare schiacciata”. E l’altro grande attore del momento, la Cina? “In Cina rischio e protezione del rischio sono il problema, e si trovano infatti in ritardo. Da quando l’applicativo ChatGpt è stato lanciato, la Cina si è scoperta in ritardo: loro erano fermi alla partenza mentre il centometrista americano era già in fase di scatto”.
Per Lapenta in questo si manifesta la grande differenza del sistema di innovazione statunitense da quello cinese. “Pechino è nella fase imitativa, e lì sta recuperando, anche se è ancora distante. Non dimentichiamoci però che innovare significa portare qualcosa in un territorio inesplorato, e questo non sta accadendo in Cina, perché il sistema è troppo legato allo stato. Mentre quello americano è un modello di innovazione possente, a livello cognitivo, psicologico di gruppo. Quando il sistema statunitense decide che il settore di innovazione è quello, per esempio l’AI, si crea un network finanziario e di start up, nonché di interessamento federale che lavora su quello e produce uno spostamento effettivo verso quei territori inesplorati”.
In mezzo alle competizioni, è evidente che siano enormi i vantaggi possibili se l’intelligenza artificiale è guidata in modo giusto. “Per esempio, può essere un enorme key driver per l’eliminazione dei gap tra Paesi sviluppati e sottosviluppati, perché mai nelle altre rivoluzioni industriali le infrastrutture sono state così poco costose come quelle per il supporto all’AI, e dunque questo significa che nessuno potrebbe, o dovrebbe, restare indietro”, spiega Lapenta. Questo, secondo il suo ragionamento, potrebbe produrre anche la decentralizzazione dell’innovazione, e l’AI potrebbe esserne proprio il driver, producendo processi di innovazione diversi a seconda delle diversità dei contesti sociali, culturali, economici (perché chiaramente un conto è innovare in California, un altro è innovare in Kenya).
“I processi di innovazione locale, quelli che sono realmente super sostenibili e funzionano in modo puntuale, sono uno dei grandi terreni di applicazione dell’AI. Un altro è il mondo dell’educazione, che sta alla base: i tutor AI possono permettere grandi accessi ai percorsi educativi. E l’educazione sappiamo è il centro di tutto, è la gestione della conoscenza la sfida per il futuro”.
Più nel concreto, per gestire il fall out dell’esplosione, serve in tempi brevi la creazione di un ente globale che governi rischi, opportunità, sfide dell’AI – il modello potrebbe essere l’Agenzia internazionale per l’energia atomica, Iaea, agenzia intergovernativa autonoma che dal 1957 guida lo sviluppo del nucleare per conto delle Nazioni Unite. “I rischi e le potenzialità devono essere equi-distribuite. Servono regole e leggi condivise, e devono essere multilaterali”.
“Inoltre – continua il professore – deve essere stabilito un rapporto equo nei confronti dei dati: fondamentale che siano aperti, superando la tendenza di tenere chiusi per i dati più importanti, perché è quello che crea il vero gap: l’accesso ai dati di qualità. Quindi dati scientifici, medici eccetera devono essere trasparenti e condivisi. Anche perché molto spesso si spende tantissimo per dati che vengono utilizzati una volta e poi restano accantonati e non accessibili: un esempio sono quelli del settore medico, con l’80% usato solo per la ricarica specifica. Poterli invece riutilizzare successivamente è un processo di sostenibilità. La protezione dei dati è protezione dei processi democratici”.