Skip to main content

IA, il progresso non si ferma ma si può dirigere. Parla Giuseppe Italiano

Intelligenza artificiale

“Non ha senso provare a fermare l’innovazione tecnologica: la storia ci insegna che le innovazioni irrompono nelle nostre società senza neanche chiedere permesso. Sta a noi comprenderne potenzialità e limiti e vedere come governarle efficacemente”. In questa intervista Giuseppe F. Italiano, direttore della laurea magistrale in Data Science and Management e professore di Computer Science della Luiss, mappa rischi e prospettive dell’Intelligenza artificiale

Sono giorni turbolenti sul versante dell’intelligenza artificiale generativa, dopo settimane in cui utenti e legislatori hanno osservato – e metabolizzato – cosa sia in grado di fare questa tecnologia. In Italia ChatGPT rimane bloccato, altri Paesi accendono i riflettori sui potenziali rischi, e sempre più esperti chiedono di rallentare lo sviluppo ulteriori delle applicazioni di IA (qui l’intervento di Yoshua Bengio). Così abbiamo raggiunto Giuseppe F. Italiano, direttore della laurea magistrale in Data Science and Management e professore di Computer Science della Luiss, per una conversazione a tutto tondo.

Come commenta la sospensione di ChatGPT in Italia?

Non sono esperto in materie giuridiche, quindi mi è difficile commentare questi aspetti. Se il Garante per la Protezione dei Dati Personali ha disposto nei confronti di OpenAI una limitazione provvisoria del trattamento dei dati personali immagino abbia avuto le sue buone ragioni. Anche perché sistemi così sofisticati, come i Large Language Model (Llm), sembrano avere qualche problema di privacy. E mi sembra anche abbastanza naturale che OpenAI, in risposta alle osservazioni del Garante, abbia deciso di disabilitare l’utilizzo di ChatGPT per gli utenti italiani. Rattrista però vedere che, così facendo, l’Italia si sia aggiunta alla lista dei Paesi in cui non è possibile accedere a ChatGPT, che in questo momento include Russia, Cina, Corea del Nord, Iran, Siria e Cuba. Paesi che non sembrano propriamente brillare per democrazia.

Con l’adozione massiccia di questi Llm diventa sempre più evidente la loro tendenza a restituire informazioni convincenti ma errate. Da cosa dipende?

Dal modo stesso in cui funzionano gli Llm. Non sono motori di ricerca che restituiscono informazioni basate su evidenze fattuali, ma creano informazioni plausibili che possono essere generate a partire dai loro enormi dataset di training. È anche questo che conferisce agli Llm il loro potere generativo. E le informazioni restituite da un Llm, per quanto convincenti, possono anche essere imprecise, sbagliate o addirittura inesistenti. È un problema molto noto in Natural Language Processing (Nlp) e in particolare in Natural Language Generation (Nlg), che prende il nome di “allucinazione” (hallucination). Queste allucinazioni possono essere generate in casi molto particolari, come ad esempio quando gli Llm non hanno a disposizione molti dati di training riguardo a un certo tema, come accade con gli argomenti molto tecnici. Senza addentrarsi troppo nei dettagli tecnici, possono anche dipendere dai bias delle particolari architetture degli Llm o da decodifiche errate durante il processo di codifica/decodifica (encoder/decoder) che è tipico dei transformer (la “T” in ChatGPT, ndr).

Esistono (o si possono sviluppare) sistemi in grado di “correggere” le imprecisioni fattuali di queste IA generative?

Giuseppe F. Italiano

È ancora un problema di ricerca molto complicato, su cui stanno lavorando ricercatori in varie parti del mondo, anche perché – come abbiamo detto – le cause delle allucinazioni dei Llm possono essere molteplici. Tanto per fare un esempio, nell’architettura basata su transformer tipica dei Llm, l’encoder impara a codificare una sequenza di lunghezza variabile dal testo di input in una particolare rappresentazione interna al modello, che viene poi passata alle fasi successive. In molti casi, le allucinazioni appaiono anche perché gli attuali Llm mancano di un’adeguata interpretazione semantica dell’input: alcuni ricercatori stanno lavorando su potenziare le architetture degli encoder così da renderle più compatibili, anche semanticamente, con gli input. Come dicevamo, è ancora un problema di ricerca aperto e non è chiaro come e quando si arriverà a una soluzione praticabile.

Visto il potenziale impatto sociale, sempre più esperti stanno invocando un rallentamento o addirittura una sospensione dello sviluppo degli Llm più avanzati. Crede che sia sensato limitare l’innovazione a favore della sicurezza?

Lei sta pensando alla recente lettera aperta del Future of Life Institute, firmata anche da Elon Musk, che chiede una moratoria di sei mesi e inquadra i rischi dell’IA in modo futuristico e oserei dire anche un po’ troppo semplicistico e fantascientifico. Devo dire che sono molto scettico sui contenuti di questa lettera, che contiene riferimenti “a menti non umane che potrebbero superarci numericamente, diventare più intelligenti, renderci obsoleti e sostituirci”, oppure avverte del rischio di “perdere il controllo della nostra civiltà”. Pensare in questo modo a un futuro lontano non è soltanto distante dalla realtà, ma può distrarci dai rischi concreti che dobbiamo affrontare oggi. Come, ad esempio, la facilità di generare disinformazione con strumenti di IA generativa: abbiamo visto tutti le (finte) immagini del Papa o sull’arresto di Donald Trump generate con Midjourney. Cosa sarebbe successo se non fossero state etichettate come finte?

Vede altri rischi concreti per il futuro prossimo?

Sì, specie in un contesto in cui gli Llm (come ChatGPT) sono connessi come plug-in ad altri sistemi o fanno parte di intere supply chain. Oggi possiamo interagire responsabilmente con gli Llm, comprendendone i limiti, le imprecisioni e le allucinazioni, rimanendo al contempo consapevoli di interagire direttamente con loro. Ma siamo in grado di interagire altrettanto responsabilmente e consapevolmente con sistemi che nascondono Llm al loro interno? Inoltre, più che delle “menti non umane”, mi preoccupano molto più quelle umane che utilizzano gli Llm per i loro obiettivi, magari senza comprenderne appieno la portata e i limiti. Tuttavia, tutti questi rischi non si risolvono arrestando la ricerca e lo sviluppo degli Llm. Personalmente non credo che abbia senso provare a fermare l’innovazione tecnologica: la storia ci insegna che le innovazioni, anche se proviamo ad arrestarle, irrompono nelle nostre società, nelle nostre vite, senza neanche chiedere permesso. Sta a noi comprenderne potenzialità e limiti, e vedere come governarle efficacemente, per il bene di tutta l’umanità e non soltanto di pochi.

L’Ue, con l’AI Act, vuole classificare le IA in base al rischio e aumentare i controlli regolatori. Dall’altra parte dello spettro, gli Stati Uniti preferiscono limitare gli interventi regolatori per favorire l’innovazione. Qual è l’approccio più adatto – anche in vista del vantaggio competitivo globale offerto dall’IA?

Non so se esista un approccio più adatto. Penso che innovazione e regolamentazione siano entrambi molto importanti: non si può prediligere uno e dimenticare l’altro, come sta succedendo in qualche Paese. Tuttavia innovazione e regolamentazione hanno velocità completamente diverse, e questo sta creando, a mio avviso, una tensione drammatica; non solo tra innovazione e regolamentazione, ma anche tra innovazione e comprensione del fenomeno. Tanto per essere concreti, l’AI Act è partito più di due anni fa (nel 2021) e si è ancora abbastanza lontani dalla sua approvazione. Di contro, ChatGPT si è diffusa in pochissimi giorni (1 milione di utenti in una settimana, 100 milioni di utenti in due mesi). Come facilmente immaginabile, i legislatori dietro all’AI Act faticano a recepire le enormi innovazioni di scenario introdotte dagli Llm. Riusciamo davvero a regolamentare innovazioni così complesse e con velocità di diffusione così impressionanti, dell’ordine di qualche giorno, con regolamentazioni che hanno tempi inerentemente così lunghi, dell’ordine di 3-4 anni? Senza contare le nuove sfide: è molto difficile provare a regolamentare l’IA con gli stessi strumenti e approcci con cui siamo abituati a lavorare.

Nel breve e medio termine, quali saranno le ripercussioni più evidenti del’IA generativa nel mondo del lavoro?

Nel breve termine l’IA generativa ha il potenziale di trasformare varie industrie e settori, come i media, l’intrattenimento, l’istruzione, l’assistenza sanitaria o i servizi legali. Indubbiamente pone nuove sfide e rischi per il mercato del lavoro, dato che potrebbe automatizzare molte attività oggi svolte da lavoratori umani. Nel medio termine, secondo alcuni analisti, questa tecnologia potrebbe impattare fino a 300 milioni di posti di lavoro a livello globale, ovvero circa il 18% della forza lavoro totale. Credo che l’impatto sarà molto diverso nei vari Paesi a seconda della loro struttura occupazionale e al livello di reddito; quelli a più alto tasso di sviluppo saranno probabilmente i più colpiti perché hanno più posti di lavoro esposti all’automazione, pur avendo anche più risorse e capacità per adattarsi ai cambiamenti. D’altro canto, soprattutto nei Paesi emergenti, l’IA generativa sarà in grado di creare molti nuovi posti di lavoro e nuove competenze che oggi forse non esistono ancora.

E quali altre applicazioni IA hanno il potenziale di rivoluzionare il mercato?

È veramente difficile fare previsioni in questo campo. Credo che a breve termine si avranno nuovi sviluppi interessanti nell’interazione tra strumenti di IA generativa e altre tecnologie. Ci sono anche enormi potenzialità negli sviluppi di realtà aumentata (augmented reality) non solo nel gaming e nell’intrattenimento ma, per esempio, anche in settori produttivi per la manutenzione di impianti. E poi ci si attendono nuove rivoluzioni nel settore della robotica, con robot che saranno in grado di eseguire compiti sempre più sofisticati, magari anche interagendo non solo con esseri umani ma tra di loro in nuove forme collaborative.

Come dovremmo reagire?

Credo che questa tecnologia possa comportare un impatto notevole, producendo aumenti nella disuguaglianza di reddito e nella polarizzazione sociale, soprattutto se non verrà accompagnata da politiche adeguate. Per mitigare i potenziali effetti negativi sembrano necessari fin da oggi maggiori investimenti in istruzione e formazione, protezione sociale, flessibilità e mobilità del mercato del lavoro.

×

Iscriviti alla newsletter