Skip to main content

Potenziare l’uomo, non emularlo. Conversazione su ChatGPT con Irene Finocchi

“Il mondo del digitale e dell’Ia, è un po’ come la forza di gravità. Permea la nostra esistenza, ma in modo spesso invisibile”, spiega Irene Finocchi, direttrice del corso di laurea triennale Luiss in “Management and computer science” a Formiche.net. E su ChatGPT è necessario pensare a un nuovo paradigma, non imitativo ma di potenziamento delle facoltà umane

È sulla bocca di tutti, e giustamente, la versione rilasciata a novembre scorso di ChatGPT, l’Intelligenza artificiale conversazionale che con le sue capacità imitative è in grado di “rubare” lo stile di grandi scrittori, produrre testi quasi indistinguibili da quelli nati dalla mente umana, ma anche esercitarsi nella programmazione. Secondo la professoressa Irene Finocchi, direttrice del corso di laurea Triennale Luiss in “Management and computer Science” (per cui ci si può candidare fino all’8 febbraio), queste immense potenzialità potrebbero essere usate diversamente con una “visione più costruttiva: potenziare più che emulare il comportamento umano”, spiega in una conversazione con Formiche.net, superando il paradigma di Alan Turing raccontato anche nel film “The imitation game”.

Facciamo un passo indietro: l’Intelligenza Artificiale fa già parte delle nostre vite, no?

Certamente. L’intelligenza artificiale permea le nostre vite, se pensiamo a sistemi come Alexa o Siri, agli assistenti vocali negli smartphone. O al riconoscimento facciale con cui si sbloccano i cellulari, ai sistemi collegati ai veicoli a guida autonoma, ma anche cose più banali, come i sistemi di rilevazione di collisioni, sempre nell’automotive. Mi viene in mente l’ambito dell’advertising, ormai riceviamo pubblicità sempre più personalizzate e ci sono dietro sistemi di Intelligenza artificiale. Per non parlare di tutto ciò che si collega all’Internet delle cose, l’Iot: aspirapolveri intelligenti, sistemi di condizionamento che regolano automaticamente la temperatura. Potrei continuare, ma questi pochi esempi rendono evidente la pervasività dell’Ia nella quotidianità di ciascuno di noi.

Irene Finocchi

Siamo circondati?

A me piace dire, anche ai miei studenti, che questo mondo del digitale in generale e dell’Intelligenza artificiale, è un po’ come la forza di gravità. Permea la nostra esistenza, cioè io sono seduta e in piedi e non fluttuo in aria perché c’è la forza di gravità, ma non ci penso mentre accade, avviene in modo spesso invisibile. Ecco, allo stesso modo col digitale e le nuove tecnologie.

Ecco, allora perché tutto questo scalpore per ChatGPT?

Perché è un’Intelligenza artificiale conversazionale molto avanzata e che riesce a riprodurre in maniera molto verosimile, a imitare dei testi generati da un umano. Parlare di ChatGPT mi fa ripensare al padre fondatore dell’informatica, Alan Turing.

Perché?

Come racconta il film “The imitation game”, Turing fece un esperimento su un gioco mentale dell’imitazione e lanciò una sfida la cui domanda era: “È possibile per una macchina ingannare un uomo facendo finta di essere un altro uomo?”. C’era un computer, c’era un altro uomo che veniva interrogato e un’altra persona che tramite un terminale faceva delle domande. Lo scopo del computer era di imitare il comportamento umano e le sue risposte, lo scopo dell’uomo era di farsi riconoscere. A tal proposito venne pubblicato un articolo nel 1950, oltre 70 anni fa, “Le macchine possono pensare?”. Ecco, l’impressione che dà ChatGPT è che sia una macchina pensante.

Ed è così?

No, è un’imitazione, una emulazione, una rielaborazione entro certi limiti, di dati enormi su cui questa Intelligenza artificiale è stata addestrata. Però, appunto, quello che fa ChatGPT, che si basa su tecniche di apprendimento automatico e di deep learnig, è quello di cercare di capire, dopo aver analizzato quantità di testi enormi presi dalle più svariate fonti, di rispondere alle domande che gli vengono poste cercando di costruire delle frasi più naturali possibile. Non c’è quindi una conoscenza, non c’è un ragionamento logico, però gli effetti sono impressionanti.

Ha provato a usarla?

Sì, ed è oggettivamente straordinario vedere come sia in grado di riprodurre stili diversi di scrittura. Ma la cosa forse più impressionante è cosa riesce a fare nel momento in cui genera codice e linguaggi di programmazione. Chiaramente sbaglia anche, quelle che vengono chiamate “allucinazioni”, perché non c’è un ragionamento.

A quanto ammontano queste “allucinazioni”?

È attorno al 15-20% di risposte sbagliate, però se ne parla molto perché è uno strumento estremamente potente e quello che vediamo è una piccola parte. Nel 2023 uscirà la versione GPT4 che sembra sia ancora un ulteriore passo avanti rispetto alla versione 3 su cui si basa ChatGPT, una rete neuronale di centinaia di miliardi di parametri, quindi con una precisione e una capacità ancora maggiori.

Quali sono le sue potenzialità applicative?

Secondo me sarà uno strumento molto utile e molto richiesto nel mondo delle professioni. Già molti post sui social media sono generati da ChatGPT, o per realizzare campagne di marketing, eseguire quindi la cosiddetta sentiment analysis per capire qual è l’opinione su alcuni argomenti, può automatizzare le task conversazionali fornendo indicazioni e dando delle risposte a domande poste dagli utenti in un contesto specifico. Può aiutare nel coding, sicuramente, trovare bug, insomma velocizzare una serie di operazioni di ricerca di informazioni rese disponibili e assemblarle in maniera coerente. Nuova conoscenza o ragionamento logico, non ne produce. Non ha un pensiero critico, ed è qui che l’uomo, gli studenti, vanno educati al suo uso corretto, responsabile e intelligente.

A proposito di studenti, alcune università americane ne hanno bloccato l’uso e c’è un allarme rispetto alla possibilità che possa essere usata per superare test di ingresso o esami. Un rischio concreto anche in Italia o allarmismo?

C’è molto allarmismo non totalmente immotivato. È ovvio che offre la possibilità di plagiare all’ennesima potenza, laddove prima dovevi cercare fonti di varia natura ChatGPT semplifica notevolmente questa operazione. Però c’è un aspetto di potenzialità che non può, io credo, essere né sottovalutato né dimenticato.

Quale?

Le domande, che siano in un test di ammissione, in una prova d’esame, in una tesi di laurea possono neutralizzare questo rischio. A cosa vogliamo educare gli studenti? Ad avere un pensiero critico, a ragionare, ed è su questi aspetti che ChatGPT non è ferrato e su cui quindi si può e si deve puntare. Qui alla Luiss abbiamo un modello di apprendimento “inquiry based”, apprendimento attivo, in cui saper porre la domanda è la parte principale. Ora, ChatGPT ti può aiutare a raccogliere informazioni per l’analisi preliminare, ma poi dev’essere guidata dallo studente o dal docente che rielabora in maniera autonoma e con spirito critico.

Ma i testi creati da ChatGPT sono distinguibili da quelli scritti da una mente umana?

Mi capita spesso di fare un quiz quando vado nelle scuole superiori a fare orientamento. Portiamo testi generati dall’Intelligenza artificiale e testi generati dall’uomo e proviamo a capire se gli studenti riescono a distinguerli. Ecco, nella maggior parte dei casi gli studenti sbagliano, mentre i docenti riescono a indovinare molto di più. Questo cosa significa? Che una conoscenza della materia aiuta a riconoscere l’Ia, ma anche che maggiore è la formazione anche digitale e minori sono le preoccupazioni, sfruttando così le potenzialità immense che lo strumento offre.

Come si contrastano i possibili “bias” nella programmazione di ChatGPT o strumenti simili?

Il problema del bias, del dare risposte o soluzioni tendenziose o discriminatorie c’è, ma va ad esacerbare comportamenti umani. Il machine learning cosa significa? Che l’Ia apprende dai dati: se questi sono unbiased, cioè non discriminano, allora anche il sistema non discriminerà. Il problema è a monte, cioè a chi produce quei dati, quindi l’uomo. Se addestro il sistema di Intelligenza artificiale dandogli immagini di cani e gatti e per tutti i cani gli dico “questo è un gatto”, quando gli darò un’immagine di un cane mi dirà “no, questo è un gatto” perché l’ho addestrato io in questa maniera. La bontà dei dati è il problema di fondo.

È di questi giorni la notizia che la Cina svilupperà il suo corrispettivo di ChatGPT. Una competizione all’orizzonte anche su questo?

Io credo sia un bene che ci sia una competizione da varie parti e sappiamo che la Cina sta investendo e ha investito in tecnologie, in intelligenza artificiale e informatica in maniera impressionante anche da un punto di vista di ricerca accademica. Non pensiamo, però, che l’Ia sia qualcosa che nasce con ChatGPT o in questi giorni. Tutti i big player del tech investono in questo da tanto. ChatGPT è di OpenIA lanciata da Elon Musk, una organizzazione più giovane che è nata con lo scopo di promuovere e sviluppare un Ia che sia friendly e utile all’umanità, che si è esposta di più rispetto ad alcuni big player. Ma tutti i giganti del tech ci lavorano, non è una novità. Sicuramente la prima volta che se ne parla in maniera così aperta.

Cosa si può fare, o cambiare, di questa idea di Intelligenza artificiale, a suo giudizio?

Mi collego a quanto detto prima su Alan Turing e il suo “imitation game” che ha introdotto l’idea di Intelligenza artificiale imitativa. Il focus dell’Ia è stato fino ad ora quello di emulare l’uomo. Secondo me la prospettiva andrebbe cambiata. L’Ia dovrebbe potenziare le facoltà umane, usata a supporto dell’uomo, anziché pensare di imitarlo e quindi rimpiazzarlo. È una visione più costruttiva: potenziare più che emulare, e in fondo ChatGPT imita il comportamento umano. Sarebbe forse utile ripensarla immaginando come sfruttarla per potenziare le facoltà umane, invece che imitare quello che sappiamo già fare.


×

Iscriviti alla newsletter