Technopolicy è una nuova piattaforma (video, audio, testo) in cui discutere di tech e politica, innovazione e relazioni internazionali, digitale e regolamentazione. Nella prima puntata parliamo con Padre Benanti – professore di teologia morale ed etica delle tecnologie – di intelligenza artificiale, algoritmi, giudici-robot: come si deve porre l’Europa tra il modello ultra-libero americano e quello ultra-controllato cinese?
________________
Clicca qui per vedere l’episodio integrale su Business+, la tv on demand
Clicca qui per ascoltare il podcast
________________
Technopolicy, il podcast di Formiche.net
Tra le pagine dei quotidiani e dei periodici è piuttosto comune trovare una sezione sulla tecnologia. Esistono milioni di video-recensioni su qualunque gadget, dai telefoni agli aspirapolvere intelligenti. Siamo invasi di podcast che ripercorrono, romanzata, la storia delle società della Silicon Valley. Eppure manca, in Italia, qualcuno che parli dell’incrocio tra tech e politica, tra innovazione e relazioni internazionali, tra digitale e regolazione. Per questo abbiamo deciso di creare un nuovo “contenitore”, Technopolicy, con l’obiettivo di raccontare e creare una discussione su questi tre incroci pericolosi.
Ogni settimana incontrerò esperti, accademici, manager, giuristi, per discutere di un tema specifico e attuale. Ciascuno di questi incontri diventerà un video su Business+, la nuova piattaforma tv on demand; un podcast su Spreaker, Spotify, Apple e gli altri canali audio; un articolo su Formiche.net. Perché ognuno ha il suo mezzo preferito per informarsi e a noi interessa la sostanza e non la forma. Ogni episodio è stato scritto e prodotto insieme a Eleonora Russo.
________________
Episodio 1 – Paolo Benanti – L’algoretica e l’Intelligenza artificiale al servizio dell’uomo
Creare intelligenze artificiali capaci di avvicinare sempre di più il modo di pensare di una macchina a quello umano sarà una delle sfide più impegnative dei prossimi decenni. Ma la relazione tra algoritmi, AI e individuo solleva ancora tanti dubbi che riguardano soprattutto l’etica, con un dibattito che si muove tra tecnologia, dignità dell’umano e responsabilità di chi crea l’artificiale. In un mondo fatto di uomini che utilizzano algoritmi per accedere ai servizi e macchine che, grazie agli algoritmi, diventano capaci di provare sentimenti, ci avviamo verso un futuro di replicanti alla Blade Runner? Ne parliamo con padre Paolo Benanti, professore di teologia morale ed etica delle tecnologie alla Pontificia Università Gregoriana, autore di Human in the loop“.
Chi è Paolo Benanti?
La storia di ciascuno di noi è fatta di incontri, casualità e occasioni. Durante i miei studi di Ingegneria un Professore di filosofia del liceo, quando gli dissi che tra tecnica e filosofia sceglievo la tecnica, mi ripetè che avrei preferito far carriera e non capire la realtà. Al quarto anno di Università capii che l’Ingegneria era potentissima e che mi avrebbe dato un buono schema per approssimare la realtà. Ma io desideravo qualcosa in più. E fu la mia fidanzata di quel periodo a farmi conoscere i frati. Durante un incontro con alcuni di loro ho intravisto in quella scelta di vita e in quella possibilità di cercare il senso delle cose, qualcosa che mi piaceva moltissimo. Da lì deriva la mia scelta di studiare Filosofia e poi Teologia, specializzandomi infine in Etica. Successivamente, mi si presentò l’occasione di fare un dottorato all’Università di Georgetown sui temi legati all’intersezione tra umano e tecnologia. Una volta rientrato in Italia nel 2009 mi resi conto che era appena cominciata la primavera delle intelligenze artificiali, e fu per questo che ho dedicato gran parte del mio impegno a questo settore.
Uno dei temi che tratti con più attenzione è l’algoretica. Quali principi si possono applicare agli algoritmi e come fanno le macchine a capire i valori fondamentali del nostro vivere sociale di esseri umani?
Dagli anni Cinquanta in poi, quando la macchina con le rivoluzioni industriali aveva sostituito le nostre capacità fisiche e muscolari, si è iniziato a pensare che essa potesse assumere anche un’altra funzione umana, la cognizione. Le tecnologie cosiddette intelligenti nascono come un’evoluzione che rischia di divenire una nuova rivoluzione, portandosi dietro effetti deflagranti e globali. Tutto questo si è giocato attorno alla computazione, alla cui base è il paradosso di Church-Turing, per il quale se un problema è umanamente calcolabile, allora esisterà una macchina in grado di risolverlo. Per cui se l’intelligenza è qualcosa di calcolabile prima o poi qualcosa di non biologico potrà arrivare a calcolarla nella stessa maniera. C’è però da chiedersi se questa trasformazione in termini comparativi possa essere analoga all’essere umano. Dopo anni da questi ragionamenti ci siamo resi conto che esistono fattori non computabili. La corporeità è uno di questi, con l’intelligenza motoria e la coscienza. Un altro elemento è la casualità, che resta ancora qualcosa di appartenente solo all’umano. Questi fattori non computabili ci dicono che esiste uno spazio umano di differenza qualitativa rispetto alla macchina. L’algoritmo consiste nel tentativo di scrivere un nuovo capitolo di questo spazio umano, con l’etica che funziona un po’ come un tracciato da seguire per la macchina. Non è un’etica normativa ma piuttosto delle virtù: tenta cioè di fornire degli strumenti computazionali che in qualche misura guidano la macchina verso i fini che noi vogliamo.
Dato che le potenzialità e l’onnipresenza delle intelligenze artificiali non fanno che crescere, le scelte in materia di regolamentazione influenzeranno il futuro della società. Nelle intenzioni di Bruxelles è chiara la volontà di tracciare una “terza via” tra il liberissimo mercato statunitense e l’autoritarismo digitale cinese. Secondo te quale modello (e quali valori) dovrebbe adottare l’Ue per disciplinare questa tecnologia?
Non esiste una tecnologia neutrale. Quando si sprigiona porta con sé, nel suo disporsi, inevitabilmente una visione del mondo, una visione politica. Un esempio di questo aspetto si trova nelle infrastrutture elettriche per le quali esistono almeno due modelli di distribuzione, uno che fa riferimento ad una rete democratized, disponibile per tutti sul mercato, e l’altro di impostazione sovietica che prevedeva la sovietizzazione delle Repubbliche socialiste proprio mediante l’energia elettrica. Quindi l’infrastruttura rappresenta sempre una forma d’ordine ed una disposizione di potere. Da qui discende l’opposizione di oggi tra un modello che si basa sul singolo immediatamente libero di far tutto e l’altro fondato sull’idea che una centralizzazione aumenti l’efficacia. Qui vorrei fare una critica ad un’impostazione troppo liberista. Il modello di elaborazione dei dati della Silicon Valley si basa su di una libertà che a noi europei sembra un po’ un esercizio di potere sbilanciato. Di contro la società dell’informazione e del controllo, dove il consenso nemmeno viene richiesto, alla fine arriva agli stessi esiti ma con un controllore centrale che non è detto che voglia rispondere ai valori che noi condividiamo di legittimazione della cosa pubblica e dello Stato sociale. Per risolvere questa impasse una strada che stiamo prendendo è quella di una regolamentazione che va in due direzioni: da una parte quella di riconoscere che non tutte le infrastrutture hanno la stessa pericolosità, dall’altra quella di riconoscere che abbiamo un certo potere sul mercato globale che ci ha spesso permesso di stabilire standard di qualità su molti servizi. Riusciremo a farlo anche con l’AI? È da vedere, ma in ogni caso un dispositivo di regolamentazione non è detto che debba essere scritto su pietra.
Oggi c’è grande attenzione per le intersezioni fra intelligenza artificiale e giustizia penale. Il tentativo cinese di creare un prosecutor che sia in grado di decidere nel merito di un processo basandosi su un algoritmo, ha sollevato più di una questione. E’ pur vero che un “giudice-robot” ha i suoi vantaggi: non sarebbe condizionato da umore, antipatie, bias, sempre che chi lo programma non ne abbia. Come si fa a capire qual è il limite di un’automatizzazione della giustizia?
Un primo livello riguarda una sfida molto attuale. Tra l’uomo e la macchina, stiamo perdendo di fronte alle macchina la capacità di discernere tra noi e loro. Ne discendono alcune critiche efficientiste sulla qualità del giudizio umano. Un punto di riferimento come l’uomo e il suo decidere, è sempre così performante? L’uomo in fondo è imperfetto e inefficiente, però a livello quantitativo e non qualitativo. In termini di giustizia, quale uomo può giudicare un altro uomo? Mai nel corso della nostra storia ci siamo dati una risposta che statuisse che il giudizio di una persona sarebbe stato sempre perfetto fino in fondo. Piuttosto ci siamo sempre detti che quella persona ha qualitativamente impiegato se stessa per un mestiere. Questa qualità fa la differenza.
Il secondo livello della sfida invece riguarda la qualità della macchina. Un giudizio su di un comportamento non avviene solo su valori numerici, ma su valori etici, costituzionali eccetera. Di fronte a questa potenza della macchina c’è qualcuno che la reputa più forte dell’umano, da una parte stiamo perciò depotenziando l’umano, dall’altra stiamo realizzando e idolizzando la macchina. In realtà una serie di elementi ci comunica che anche il giudizio della macchina non è perfetto e commette errori sistematici, bias. Gli effetti di questi errori applicati alla macchina potrebbero produrre ingiustizia sociale.
Il terzo livello riguarda sul se quello che ci siamo detti finora sia vero in assoluto. Questo dipenderà dall’applicazione e dalla circostanza. Supponiamo di dover parlare di cure mediche in un ambiente con basso tasso di medici specializzati. Se filosoficamente ci colpisce il desiderio di surrogare l’imponderabile con un giudizio macchinico imponderabile, non è detto che in alcune circostanze non possa darci una mano.
Può sembrare che sull’intelligenza artificiale tutti i soggetti coinvolti – ingegneri, filosofi, giuristi, militari, politici, utenti – portino la propria visione specifica della questione senza avere un quadro completo. Lei, teologo e ingegnere, riesce a “coprire” due caselle importanti, e non è poco. Esiste un cenacolo dove si discute in cui ognuno porta la propria visione per cercare di aprire il campo visivo anche a ciò che non entra nelle competenze di ciascuno?
Esistono dei forum informali anche di alto livello. Ma abbiamo una formazione accademica sul tema che è ancora molto verticistica, un fenomeno come TED ci ha informato che l’impostazione rigida stride con la grande ridefinizione delle competenze che accade oggi. C’è perciò bisogno di contaminare i saperi, ricreando la piazza della polis greca che è poi il fondamento del nostro vivere occidentale. L’ascolto e il confronto con competenze diverse è l’urgenza più importante per affrontare il futuro che in realtà vogliamo vivere.
Ci consiglia qualcuno da leggere o da seguire?
Human in the loop, il testo che ho scritto e che tenta di dare uno spazio nell’umano per intercettare la tecnologia.
Il secondo consiglio è un forum bottom up di una rivista che si chiama Alt 2006, collegata ai primi hacker bianchi, che cercavano di guardare dentro la tecnologia per capirla, e che si interroga sul significato di questi cambiamenti. Raccoglie molti suggerimenti su come riuscire a vivere in questo mondo preservandone la democraticità.
Clicca qui per vedere l’episodio integrale su Business+, la tv on demand
Clicca qui per ascoltare il podcast