Skip to main content

IA e democrazia, servono nuovi anticorpi. Parla padre Benanti

Conversazione di Formiche.net con Padre Paolo Benanti, docente di etica alla Pontificia Università Gregoriana ed esperto di etica delle tecnologie, a margine del suo intervento a Passaggi Festival a Fano (PU) sul suo ultimo libro, “Human in the loop. Decisioni umane e intelligenze artificiali” (Mondadori Università)

Se a partire dalla rivoluzione industriale la macchina ha preso il posto del lavoro muscolare, oggi la rivoluzione digitale ha già cambiato radicalmente le vite di gran parte dell’umanità, con tutte le conseguenze che si possono già osservare sotto molteplici aspetti: fisici, spaziali, cognitivi. Per cui una delle domande cruciali del nostro tempo riguarda quali saranno gli effetti a lungo termine della rivoluzione digitale, e se in ballo c’è la possibilità che questa sostituisca in maniera sempre più determinante la mente umana. Non a caso, periodicamente accade che ingegneri della Silicon Valley facciano scalpore in tutto il mondo narrando di macchine che arrivano ad acquistare una personalità propria, una vera e propria “coscienza” e diventando “senzienti”, come nel recente caso dell’ex ingegnere di Google Blake Lemoine.

Padre Paolo Benanti, docente di etica alla Pontificia Università Gregoriana, esperto di innovazione ed etica delle tecnologie, non ci pensa però due volte a bollare la vicenda come una grande illusione. O meglio, “uno specchio, un’eco nella caverna che ha ingannato anche l’ingegnere”, ha spiegato a Formiche.net a margine del suo intervento a Passaggi Festival a Fano (PU), ricco festival letterario con oltre 150 ospiti che si svolge fino al 26 giugno nella cittadina situata sulla costa adriatica, dove il francescano del Terzo Ordine Regolare ha conversato sul suo ultimo libro, “Human in the loop. Decisioni umane e intelligenze artificiali” (Mondadori Università, prefazione di Giuliano Amato), con l’esperta di comunicazione Fiamma Goretti e l’esperto di performance marketing e AI Paolo Dello Vicario.  

Le macchine prenderanno il posto anche della nostra mente?

È molto difficile che questo avvenga, in senso generale, ma è possibile che noi continueremo a delegare sempre più parte del nostro agire alle macchine, come di fatto già accade quando ci facciamo suggerire dall’algoritmo il prossimo film in streaming sulla piattaforma digitale o leggiamo le notizie secondo un ordine suggerito dal motore di ricerca. Tutto questo porta a un’interazione tra uomo e macchina in cui l’uomo diventa un pezzo di questo circuito, un anello della catena, e gli stimoli che riceve dalla macchina non sempre diventano stimoli coscienti ma possono influenzare il comportamento e le decisioni. Nel libro allora pongo questa domanda: cosa e quanto spazio vogliamo lasciare a questo tipo di influenza, e come creare dei guard rail affinché dentro questo circuito sia l’uomo il controller e non il controllato?

È una questione solamente di norme giuridiche, o che riguarda solo la programmazione, quindi i tecnici e gli ingegneri, coloro che stanno a monte del processo, oppure c’è altro?

Io sono un eticista e non un giurista. È evidente che servano delle norme giuridiche ma l’etica è uno spazio che non è esigibile per legge. Lo spazio dell’etica è quello che vuole rendere “gentili” le leggi, cioè adatte ai nostri tempi. È quindi un discorso che riguarda la società civile, ma c’è bisogno di contaminare le competenze: quella che era una disciplina umanistica per eccellenza, l’etica, ora deve diventare anche una disciplina ingegneristica. Le indicazioni etiche dei filosofi adesso devono essere comprensibili non solo dalle persone ma anche dalle macchine. In questo caso si parla di “algoretica”, un’etica sviluppata dagli uomini ma computabile anche dalle macchine.

Nei giorni scorsi un ex ingegnere di Google si è detto convinto di aver trovato un’intelligenza artificiale senziente, Lamda, “con la coscienza di un bambino di 8 anni e capace di esprimere sentimenti e pensieri”.

Lamda tratta il linguaggio come se tutte le parole fossero biglie legate tra di loro da alcuni elastici, per cui a seconda di come io mi rivolgo a questo artefatto per dialogare si generano degli elastici più in tensione rispetto agli altri. Così accade che la macchina interpreti statisticamente la mia domanda e cerchi di capire che cosa si stia cercando di dire, e ciò genera una serie di parole connesse tra di loro secondo questa tensione, come se fossero una serie di palline legate da un elastico.

Lei cosa pensa di questa vicenda, si tratta solo di suggestione?

Quello che è successo con l’ingegnere di Google è che l’intelligenza artificiale ha funzionato, ha risposto bene, riuscendo a ingannare anche un professionista. Ma non facciamo vedere questa sorta di miraggio del deserto, che non c’è. Tuttavia questo ci deve fare riflettere e aiutare a mettere dei limiti a questa tecnologia. Pensiamo a cosa possa fare un’intelligenza artificiale di questo tipo a qualcuno particolarmente fragile. Pensiamo a un anziano: potrebbe vendergli tutte le enciclopedie che conosciamo. Ma potrebbe anche essere programmata per radicalizzare qualcuno.

La domanda che si fa davanti a questi contesti o a questo tipo di dichiarazioni è sempre la stessa: è pensabile che una macchina acquisti una coscienza tutta sua?

Come ho già detto, si tratta di una domanda che non ha senso. La coscienza non è “Turing-computabile”. C’è una fantascienza che spinge molto su di noi, che ha nutrito il nostro immaginario. Non dobbiamo temere le macchine intelligenti perché sono una novità, ma dobbiamo essere consapevoli che ogni utensile può diventare un’arma, sempre più potente e capace di ingannare persino un esperto. Questo non ci deve stupire ma deve renderci consapevoli che c’è bisogno di una sempre più sofisticata regolazione.

La mente vola subito al contesto militare, e all’utilizzo dell’intelligenza artificiale o di questo genere di tecnologie nei conflitti bellici.

Le macchine in ambito militare sono quelle più controllate. Secondo me c’è molto più rischio nel lasciare un ragazzo da solo su un’altra macchina che si chiama social network. Chiaramente, in scenari più complessi, dove gli esiti possono essere letali l’allerta deve essere massima, ma questo ci porta davanti al fatto che non stiamo parlando del futuro ma di qualcosa che già accade tutti i giorni e rispetto al quale dobbiamo essere molto attenti.

Il legame tra intelligenza delle macchine e conoscenza degli utenti, grazie all’utilizzo dei big data, mette a rischio la libertà dell’essere umano? Rischiamo di finire dentro una tecnocrazia autoritaria?

Il discorso è complesso e va fatto con i termini più accurati possibile. Tutto parte da quando nel 2009/2010 le grandi compagnie si rendono conto che tantissimi utenti scambiano i loro servizi gratuiti sui social network per i loro dati. Nel 2009 Facebook diventa società per azioni. Ma a partire dal 2007 i server costano più di corrente elettrica che consumano nella loro vita che di prezzo di acquisto, perciò nasce una questione di fondo: ma tutta la corrente che serve per condividere la foto del mio gattino o dei miei selfie, chi la paga? Queste compagnie guadagnano soldi e sono diventati colossi economici grazie al fatto che monetizzano i dati che io lascio in cambio dei servizi che offrono.

C’è però il tema di come li monetizzano.

Consentendo una sorta di marketing molto personalizzato, grazie alla profilazione. Nascono così queste piattaforme con degli algoritmi che servono a orientare il comportamento degli utenti. Ma nel momento in cui queste piattaforme diventano luoghi in cui le persone formano le proprie opinioni, ci si è resi conto che questi algoritmi che orientano l’opinione pubblica hanno anche un effetto politico.

Che relazione c’è allora tra questo e la democrazia?

Tra i principi formali dello Stato di diritto ci sono le leggi. Gli algoritmi hanno una funzione molto simile a quella delle leggi, che sono fatte per orientare i comportamenti dei cittadini. Ma una legge è legittima se conoscibile, se è universale e se è generale, dice Rawls nella sua Theory of Justice. Gli algoritmi sono universali e conoscibili? Il codice non è conoscibile, perché è protetto da copyright, ma anche se fosse open source nel momento in cui viene compilato da una macchina il compilatore può iniettare qualsiasi cosa nel codice e renderlo non più conoscibile. È universale? No perché profila e sceglie lui a chi rivolgersi. È generale? No perché obbedisce solo al soggetto che rimane in quel server. Allora ecco che questa nuova disposizione degli algoritmi, nati per motivi commerciali e ora capaci di orientare l’opinione pubblica, generano una tensione a un livello molto profondo tra loro e lo Stato di diritto. La questione è perciò questa: oggi ci troviamo di fronte a un bisogno di dare alla democrazia dei nuovi anticorpi di fronte queste nuove sfide.



×

Iscriviti alla newsletter