Skip to main content

“È come se ci trovassimo in mezzo a un’esplosione”: Francesco Lapenta è founding director dell’Institute of Future and Innovation Studies della John Cabot University di Roma, e spiega così l’evoluzione dell’intelligenza artificiale a cui stiamo assistendo. “E però – continua in una conversazione con Formiche.net – in questo momento è come se tutto si muovesse al rallentatore, dunque immaginiamo ancora di poter gestire gli effetti di quest’esplosione, ma prima o poi le cose andranno a velocità reale, e a quel punto ci renderemo conto che la deflagrazione è già avvenuta”.

E uno dei campi in cui l’esplosione potrebbe far sentire maggiormente il suo effetto è quello della disinformazione, che da anni erode i sistemi democratici, e che con l’AI generativa potrebbe ricevere un boost – d’efficacia ed efficienza, di diffusione e realismo. Tema che verrà trattato lunedì 20 maggio, nell’evento internazionale co-organizzato dall’instituito di Lapenta, dal Guarini Institute della John Cabot e dal Centro Studi Americani.

Il rischio è di non riuscire più a controllare gli effetti dell’impeto con cui l’AI si sta propagando. Ed è per questo che stiamo assistendo a un forte interessamento da parte innanzitutto dei governi, che trasmettono ai media mainstream tale esigenza. Per il docente si è creato un incastro perfetto tra comprensione maggiore della teoria della complessità (frutto anche del Butterfly Effect visto con la pandemia), valore della gestione del rischio, opportunità e sfide del digitale. “Tutto questo ha portato a una maggiore consapevolezza sul tema, con gli esperti che hanno finalmente conquistato il loro ruolo di esperti e il ritorno dello studio della filosofia, che trova un applicato nella tecnologia”. Le relazioni internazionali seguono.

Ne sono esempio il recente incontro tra Stati Uniti e Cina, pensato per cercare un terreno di dialogo e confronto al fine di raggiungere regolamenti o termini di utilizzo più o meno condivisi (sarà mai possibile?). Continuando con gli esempi, è stato molto chiaro il prefetto Bruno Frattasi, direttore dell’Autorità nazionale per la cybersicurezza quando l’altro ieri presiedendo il Gruppo di Lavoro G7 sulla Cybersecurity ha detto: “L’intelligenza artificiale è il tema centrale della presidenza italiana del G7”.

Nei fatti, anche lo scorso anno l’AI aveva avuto un posto apicale tra le priorità del gruppo, tanto che dal G7 nipponico uscì la cosiddetta “Dichiarazione di Hiroshima”, un codice di condotta condiviso dalle sette più grandi economie occidentalizzate. C’è un impegno, quasi nevrotico per certi versi, che esperti come Lapenta – attivi da anni sul tema – osservano con attenzione e compiacimento: “Ce ne accorgevamo già anni fa, era il 2006 quando si iniziava a capire che l’AI stava arrivando, mancavano gli applicativi ma era ovvio che sarebbe stato solo questione di qualche anno, di aspettare lo sviluppo tecnologico adeguato”.

Quando si parla di intelligenza artificiale molto spesso si è portati a evidenziarne i rischi con timore, e la disinformazione è in cima alla lista (ma d’altronde è fisiologicamente umano che le innovazioni comportino qualche genere di paura), al pari delle opportunità. Ed è per questo che sembra necessario lo sviluppo di un quadro di condotta, di cogestione, di livello internazionale per poter andare anche oltre. Cosa fare e come? “Innanzitutto dobbiamo pensare in modo sistemico”, risponde il docente della John Cabot.

“La bomba è esplosa e iniziamo a vedere le reazioni: chi è più allenato è più abile a gestire la situazione, e infatti ha già in qualche modo iniziato anche a proteggersi. Per esempio, l’Europa ha creato nel corso degli anni una società basata sulla gestione del rischio, e infatti ha reagito finora nel modo migliore all’esplosione dell’AI; primi principi, prime regole, primo AI Act”. I ministri degli Esteri riuniti a Strasburgo per il Consiglio d’Europa hanno adottato venerdì il primo trattato internazionale giuridicamente vincolante, che si occuperà di garantire il rispetto dei diritti umani, dello stato di diritto e della democrazia nell’utilizzo di sistemi basati sull’intelligenza artificiale.

E quindi l’Ue ha risposto in modo veloce (e la velocità è anche parte dell’efficacia), però non c’è una gestione uniforme. “Esattamente, tutt’altro: ci sono società che vengono e verranno travolte, come quelle in via di sviluppo, perché diventeranno test-bed di tutti gli applicativi. Gli Stati Uniti poi sono su una posizione particolare: vogliono sviluppare senza regole, perché sanno che questo crea vantaggi, ma sanno anche che la bomba è esplosa e quindi sono consapevoli che devono proteggersi. La struttura statunitense ha capito benissimo il rischio, e sta agendo in modalità a due tempi: vuole permettere al proprio ecosistema innovativo di dominare, e però pensa legislazioni per non restare schiacciata”. E l’altro grande attore del momento, la Cina? “In Cina rischio e protezione del rischio sono il problema, e si trovano infatti in ritardo. Da quando l’applicativo ChatGpt è stato lanciato, la Cina si è scoperta in ritardo: loro erano fermi alla partenza mentre il centometrista americano era già in fase di scatto”.

Per Lapenta in questo si manifesta la grande differenza del sistema di innovazione statunitense da quello cinese. “Pechino è nella fase imitativa, e lì sta recuperando, anche se è ancora distante. Non dimentichiamoci però che innovare significa portare qualcosa in un territorio inesplorato, e questo non sta accadendo in Cina, perché il sistema è troppo legato allo stato. Mentre quello americano è un modello di innovazione possente, a livello cognitivo, psicologico di gruppo. Quando il sistema statunitense decide che il settore di innovazione è quello, per esempio l’AI, si crea un network finanziario e di start up, nonché di interessamento federale che lavora su quello e produce uno spostamento effettivo verso quei territori inesplorati”.

In mezzo alle competizioni, è evidente che siano enormi i vantaggi possibili se l’intelligenza artificiale è guidata in modo giusto. “Per esempio, può essere un enorme key driver per l’eliminazione dei gap tra Paesi sviluppati e sottosviluppati, perché mai nelle altre rivoluzioni industriali le infrastrutture sono state così poco costose come quelle per il supporto all’AI, e dunque questo significa che nessuno potrebbe, o dovrebbe, restare indietro”, spiega Lapenta. Questo, secondo il suo ragionamento, potrebbe produrre anche la decentralizzazione dell’innovazione, e l’AI potrebbe esserne proprio il driver, producendo processi di innovazione diversi a seconda delle diversità dei contesti sociali, culturali, economici (perché chiaramente un conto è innovare in California, un altro è innovare in Kenya).

“I processi di innovazione locale, quelli che sono realmente super sostenibili e funzionano in modo puntuale, sono uno dei grandi terreni di applicazione dell’AI. Un altro è il mondo dell’educazione, che sta alla base: i tutor AI possono permettere grandi accessi ai percorsi educativi. E l’educazione sappiamo è il centro di tutto, è la gestione della conoscenza la sfida per il futuro”.

Più nel concreto, per gestire il fall out dell’esplosione, serve in tempi brevi la creazione di un ente globale che governi rischi, opportunità, sfide dell’AI – il modello potrebbe essere l’Agenzia internazionale per l’energia atomica, Iaea, agenzia intergovernativa autonoma che dal 1957 guida lo sviluppo del nucleare per conto delle Nazioni Unite. “I rischi e le potenzialità devono essere equi-distribuite. Servono regole e leggi condivise, e devono essere multilaterali”.

“Inoltre – continua il professore – deve essere stabilito un rapporto equo nei confronti dei dati: fondamentale che siano aperti, superando la tendenza di tenere chiusi per i dati più importanti, perché è quello che crea il vero gap: l’accesso ai dati di qualità. Quindi dati scientifici, medici eccetera devono essere trasparenti e condivisi. Anche perché molto spesso si spende tantissimo per dati che vengono utilizzati una volta e poi restano accantonati e non accessibili: un esempio sono quelli del settore medico, con l’80% usato solo per la ricarica specifica. Poterli invece riutilizzare successivamente è un processo di sostenibilità. La protezione dei dati è protezione dei processi democratici”.

Ecco come governare l’esplosione dell’AI. Conversazione con il prof. Lapenta

Protezione dei dati (che è protezione dei processi democratici), riduzione dei gap di sviluppo e un’agenzia internazionale: il professore Lapenta (John Cabot) ragiona su come governare l’esplosione dell’AI al fine di gestire il rischio e sfruttarne l’enorme potenzialità trasformativa

Spazio, mentre gli altri corrono, l’Europa che fa? Parla Spagnulo

In attesa di conoscere i dettagli della legge italiana per lo Spazio, lo scenario globale si fa sempre più complesso, con diversi attori, tra partner e competitor, che spingono molto sul settore. In questo quadro, il Vecchio continente rischia di rimanere indietro. L’intervista di Airpress a Marcello Spagnulo, ingegnere ed esperto aerospaziale

Nell’Indo Pacifico è iniziata la guerra dei porti

Di Vas Shenoy

L’intreccio di dinamiche geopolitiche che riguarda i porti nell’Indo Pacifico dimostra come la competizione tra potenze per l’accesso alle acque sia uno degli elementi dominanti nella regione, sia per ragioni commerciali che militari

La Dc e i democristiani esaltati dai loro detrattori. L'opinione di Merlo

Il recente fenomeno del rimpianto dei democristiani è portato avanti da quelle personalità che per prime hanno osteggiato la Dc, e che adesso si adattano ad un ruolo sapendo che un suo ritorno è impossibile

La Russia in Libia mira all'Africa (e all'Occidente). Conversazione con Collombier

Per la docente della Luiss, l’obiettivo della Russia in Libia è sia quello di seminare una narrazione anti-occidentale sia di approfondire le proprie attività in Africa (e i due scopi non sono divisi)

Mosca sbarca in Normandia? Così Parigi apre il caso diplomatico sulle celebrazioni del D-day

La decisione francese di invitare esponenti della Federazione Russa alle celebrazioni per l’anniversario dello sbarco in Normandia ha causato frizioni tra Parigi e i suoi partner (soprattutto quelli anglosassoni). Ma in questa decisione si può leggere una velleità francese di giocare un ruolo di primo piano nel concerto internazionale

Phisikk du role - L’eterno ritorno della legge elettorale stavolta passa dalla Cedu

Il maestro spiegava che la forma di governo dipende essenzialmente da “ due antefatti”: la legge elettorale e il sistema di partito. Fino a quando non si metterà mano a questi due fondamentali momenti, optando per un sistema elettorale proporzionale con adeguate soglie di sbarramento, non ci sarà uscita dall’impasse in cui versa la politica italiana

A che punto è la concorrenza in Italia. Scrive Mastrapasqua

Dalla Bolkenstein a Uber, le liberalizzazioni sono un tema difficile da affrontate nel Nostro Paese, soprattutto sul piano della Pa.Nonostante le pressioni in questa direzione che arrivano da Bruxelles

Perché Taiwan ha acceso un riflettore sulle elezioni Ue

Mentre Xi cerca di dividere l’Europa, anche con operazioni di influenza, l’intelligence e la diplomazia di Taipei sono al lavoro in vista del voto nei 27. L’obiettivo: valutare cambiamenti nelle politiche relative allo Stretto

Case green, la direttiva va ancora modificata. L'opinione di Pedrizzi

La direttiva europea sulle case green continua a far discutere. Con questo provvedimento viene richiesto un taglio del 16% dei consumi medi entro il 2030, del 20-22% entro il 2035; inoltre bisognerà non solo costruire edifici nuovi secondo le nuove norme, ma dovrà essere ristrutturato il 43% del patrimonio edilizio più energivoro. Si parla cioè di circa 5 milioni di edifici. L’auspicio è che il nuovo parlamento europeo tenga conto delle peculiarità della storia e della identità dei singoli popoli dell’Unione. Scrive Pedrizzi

 

×

Iscriviti alla newsletter