“Questo è un caso in cui le leggi e le tecnologie non sono ancora allineate. Forse c’è qualcosa di utile nella lettera scritta giorni fa da imprenditori e ricercatori preoccupati che chiedono una moratoria di sei mesi nel dispiegamento dell’IA. La loro idea è di dare tempo alle istituzioni di reagire”. Conversazione con Nello Cristianini, professore di Intelligenza artificiale all’Università di Bath, in libreria con il volume “La scorciatoia” (il Mulino)

La notizia dello stop di ChatGpt da parte del Garante della privacy italiano ha fatto il giro del mondo, proprio a pochi giorni dalla lettera rivolta a tutti gli sviluppatori di Ia che chiedeva una pausa di riflessione per ragionare sugli sviluppi futuri.

Formiche.net ha raggiunto Nello Cristianini, professore di Intelligenza artificiale all’Università britannica di Bath, arrivato recentemente in libreria con “La scorciatoia – Come le macchine sono diventate intelligenti senza pensare in modo umano” (il Mulino), per approfondire questi ultimi risvolti. Si tratta di un percorso, spiega il professore, che è in realtà molto lungo e arriva da lontano. “Prima di ogni domanda”, dice Cristianini, “è necessaria una premessa: l’intelligenza non è una prerogativa umana, ci sono molti tipi di intelligenza, e da qualche tempo abbiamo costruito una versione di intelligenza che fa uso di metodi statistici. Lo abbiamo fatto perché tentativi precedenti erano falliti”.

In che senso?

Ogni tentativo di comprendere il comportamento umano, o il linguaggio, in modo completo e formale, non ha funzionato. Ora abbiamo imparato ad emularli, riproducendo le loro proprietà, con metodi statistici. L’algoritmo di Amazon sa che libro comprerò, ma non capisce perché. E così è per il programma che traduce documenti su Google: può tradurre un testo dal francese, ma non può comprenderne i contenuti. Ovvero, abbiamo preso una scorciatoia. Anzi due.

Scorciatoie di cui parla nel suo libro. Ci può fare una sintesi?

Mentre la prima scorciatoia ci ha consentito di aggirare la mancanza di teorie, facendo uso dei dati, ci ha anche creato il problema di raccogliere molti dati. Qui è intervenuta la seconda scorciatoia: usiamo dati trovati sul web, o altri campioni di comportamento umano. Questo ci aiuta a capire ChatGpt, o gli algoritmi alla base delle raccomandazioni sui social.

Gpt impara a parlare da testi (e adesso anche immagini) trovati sul web. YouTube impara a raccomandare da osservazioni del comportamento di tutti i suoi utenti. Queste due scorciatoie sono la chiave per capire quello che è successo oggi in Italia con il garante della privacy, e l’altro ieri con la lettera degli imprenditori e ricercatori, che chiedevano una moratoria. Dobbiamo comprendere questi passi, se vogliamo fare le leggi che ci servono.

Arriviamo proprio alla decisione del Garante: cosa significa questo stop?

Il nostro Garante della privacy ha chiesto a OpenAI di sospendere l’uso di ChatGpt in Italia. La causa iniziale dell’indagine era stata una fuga di dati, relativi ai contenuti delle conversazioni tra macchina e utenti, ma la disposizione menziona una serie di problemi ben più ampia, per esempio il rischio che il prodotto venga usato da bambini al di sotto dei 13 anni. Sicurezza dei dati e controllo di età si possono aggiustare. Ma il fatto che Gpt apprenda a parlare da contenuti trovati sul Web, e il fatto che sia talvolta capace di dare informazioni incorrette, sono due problemi menzionati nella decisione del Garante, che non saranno facili da risolvere. Questo è un caso in cui le leggi e le tecnologie non sono ancora allineate. E che quindi ci fa pensare che forse ci sia qualcosa di utile, nella lettera scritta due giorni fa da imprenditori e ricercatori preoccupati, per chiedere una moratoria di sei mesi nel dispiegamento dell’Ia. La loro idea era di dare tempo alle istituzioni di reagire.

Arriviamo appunto alla moratoria: è davvero necessaria una pausa di 6 mesi per parlare delle implicazioni etiche dell’Intelligenza artificiale?

La lettera firmata da alcuni scienziati e imprenditori propone una pausa di sei mesi nel dispiegamento della tecnologia in prodotti, a contatto con il pubblico, non certo una pausa nella ricerca. Al momento c’è una competizione nel dispiegamento di un metodo specifico di AI, i modelli di linguaggio come Gpt, all’interno di prodotti. E le competizioni spesso portano a rischi, perché c’è meno tempo per capire le cose con calma.

Di quali rischi parliamo, in concreto, secondo lei?

Da ben prima del 2023, e di Gpt-4, viviamo a diretto contatto con agenti intelligenti potentissimi, e li abbiamo collocati in posizioni delicatissime della società, come per esempio nel caso degli agenti di raccomandazione che scelgono i contenuti che vedremo su YouTube o TikTok. Questi algoritmi cercano costantemente di imparare quello che ci farà cliccare, per poi proporcelo, allo scopo di attirare e mantenere la nostra attenzione. Quali siano gli effetti di questa tecnologia sul benessere emotivo, i rischi di dipendenza, la polarizzazione delle opinioni, non è ancora noto. Se aggiungiamo a questa situazione anche le grandi capacità della categoria “language models” come Gpt, il potere della tecnologia diventa ancora più grande. E non abbiamo ancora gli strumenti culturali e legali per controllarlo. Ci vuole tempo, ma soprattutto c’è bisogno di capire come funziona questa macchina, prima di regolamentarla. E qui c’è il problema di cui parlo nel mio libro.

C’è chi sostiene che sia un modo per rallentare i competitor che avanzano, pensa possa essere davvero così?

Non trovo utile questo modo di parlare di scienza, quello che serve è capire e risolvere i problemi. Qualsiasi possano essere le motivazioni di quei firmatari, non voglio dubitare che siano in buona fede, e osservo che hanno posto anche delle preoccupazioni valide. Al massimo si può ridire sul tono, che è un po’ allarmistico. Ma fare chiarezza prima di introdurre qualcosa nei prodotti è un fatto di buon senso. Io vorrei chiarezza sulle responsabilità legali in caso di eventuali danni, e vorrei che fossero comprese più a fondo le interazioni tra queste tecnologie e la società, la cultura, le leggi e l’economia. C’è molto lavoro da fare e anche urgente.

Recentemente è stata resa pubblica Gpt4. Quali sono le novità rispetto alla versione precedente, già sorprendente per gli osservatori?

In questa versione colpisce la multimodalità, ovvero la capacità di comprendere sia testi che immagini. Questa direzione potrebbe portare nel tempo a sviluppare una sorta di “comprensione” del mondo, sono molto interessato a questo sviluppo.

E i rivali, invece, a che punto sono?

Sono tutti più o meno nello stesso posto, i grandi gruppi industriali. La differenza di OpenAI è che hanno sviluppato l’interfaccia con l’utente, e lo hanno subito messo a contatto diretto con il pubblico, usandolo come simulatore di conversazioni. Gli altri lo usano in modo più discreto, ma il meccanismo è lo stesso ed è pubblico.

Tra i vari effetti dell’IA ci sono quelli sul lavoro, tra opportunità e rischi. Partiamo dalle opportunità: in cosa potrebbe essere – se non è già – rivoluzionaria?

Le opportunità sono significative, possiamo immaginarle considerando quello che possiamo fare con lo smartphone: tradurre, riconoscere luoghi o piante, dettare, trovare informazioni. Allo stesso modo medici del futuro faranno diagnosi di lesioni sospette sulla pelle, troveranno le ultime informazioni su un farmaco, o esamineranno con la macchina diagnosi alternative alla propria. A usare le cose bene, con cautela e con rispetto, ci sono molte promesse.

Passiamo invece ai rischi, penso ad esempio agli effetti sul mercato del lavoro…

La disoccupazione è solo uno dei tanti rischi, ed è quello più facile da immaginare: lo scopo dell’automazione è quello di sostituire le persone, e l’AI non fa eccezione. I rischi più insidiosi sono quelli imprevisti e imprevedibili: come gli effetti indesiderati dell’interazione tra macchine intelligenti e persone, per esempio il rischio di dipendenza comportamentale nei bambini, o quello di malessere emotivo, o radicalizzazione.

L’Intelligenza artificiale pervade già le nostre vite. Il dibattito che si è aperto dopo la pubblicazione di ChatGpt, però, ci obbliga a interrogarci sui suoi effetti. Non è, questo, un effetto positivo sulle possibili implicazioni future?

Il dibattito pubblico è necessario, ma deve essere informato dai fatti. Non ha senso dibattere su cose che non esistono, su forme di intelligenza che esistono solo nei film, e spesso è questo che si sente da alcuni politici o anche alcuni filosofi. La prima cosa da fare è conoscere i fatti, ovvero come funzionano queste macchine, come le abbiamo costruite, i compromessi che abbiamo dovuto fare lungo la strada, le scorciatoie che abbiamo dovuto prendere. Armati di questa conoscenza, poi dovremmo avere un dibattito pubblico. Le decisioni di questo tipo vanno prese dai parlamenti, non dagli scienziati.

Condividi tramite