Skip to main content

Intelligenza artificiale e etica, così Stati Uniti e Santa Sede possono cooperare

L’intelligenza artificiale? Non è solo una materia per informatici, ma anche un argomento politico e sociale i cui risvolti – in ambito etico e non solo – dovranno essere sempre più approfonditi negli anni a venire. Un aspetto, questo, messo nero su bianco con un chiaro riferimento ai “values”, valori come la difesa della privacy e delle libertà civili che non dovranno mancare nello sviluppo di questa tecnologia, nella nuova strategia di IA lanciata dalla Casa Bianca. Parte da questo assunto un simposio che l’ambasciata degli Stati Uniti presso la Santa Sede ha promosso oggi a Roma, riunendo autorevoli esperti di questo speciale ambito, padre Paolo Benanti (Pontificia Università Gregoriana) e padre Ezra Sullivan (Pontificia Università San Tommaso d’Aquino).

UN TEMA CRUCIALE

L’appuntamento è stato il primo di sempre su questo tema per la rappresentanza Usa presso il Vaticano, ha spiegato l’ambasciatrice Callista Gingrich aprendo i lavori, ma con molta probabilità non sarà l’ultimo. Ma da cosa è nato il bisogno di approfondire questo argomento? “La risposta”, ha evidenziato la diplomatica americana, “è in realtà abbastanza semplice. L’intelligenza artificiale sta trasformando quasi ogni aspetto della nostra vita quotidiana. Questa realtà è direttamente correlata al nostro lavoro con la Santa Sede”, dal momento che “difendiamo la dignità umana nel mondo”. Perché se da un lato “assistiamo a progressi nelle auto a guida autonoma, nei robot industriali e negli algoritmi per l’identificazione delle malattie”, dall’altro, ha detto ancora l’ambasciatrice Gingrich, “è fondamentale considerare le implicazioni etiche dell’intelligenza artificiale e lavorare per mitigare i potenziali effetti negativi. Come utilizziamo l’intelligenza artificiale per stimolare le economie senza spostare milioni di lavoratori attraverso l’automazione? Come possiamo aumentare l’apprendimento automatico in medicina e nei trasporti, senza sorveglianza illegale, raccolta di dati o minacce informatiche? Come possiamo garantire, come dice Papa Francesco, che queste tecnologie servano “il bene di tutta l’umanità, non solo di pochi?”.

IL PROGETTO DELL’AMBASCIATA

Per perseguire questi obiettivi, l’ambasciata Usa presso il Vaticano ha attivato un vero e proprio lavoro di ricerca condotto dal suo primo ‘Science Fellow’, Paul Nelson, che lavora per la U.S. Agency for International Development e che era presente all’evento di oggi in qualità di moderatore. Prima di questo simposio, sempre nell’ambito di questo progetto Nelson aveva preso parte ad altri appuntamenti di approfondimento sul tema, come una recente conferenza internazionale tenuta proprio in Vaticano per discutere di “roboetica”. Obiettivo: esplorare il modo migliore in cui Washington e la Santa Sede potranno collaborare per creare un’intelligenza artificiale a misura d’essere umano.

GLI SVILUPPI TECNOLOGICI

Questa tecnologia, si è ricordato durante il simposio, non rappresenta di per sé qualcosa di nuovo. Nasce nell’estate del 1956, quando dodici scienziati americani si riunirono a Dartmouth per determinare, grazie a un’intuizione, se le macchine potessero pensare come gli umani. Ora, 63 anni dopo, una grandissima disponibilità di dati e le potenzialità di processarli e analizzarli hanno però consentito di dare il concreto via all’era delle “macchine pensanti”.

VATICANO, ETICA E IA

“Nel XVI secolo”, ha sottolineato padre Benanti, “grazie alla lente convessa l’Uomo ha creato il telescopio e il microscopio, scoprendo di essere fatto di cellule e di vivere su uno dei pianeti di un vastissimo universo e cambiando così la sua percezione della realtà. Oggi, allo stesso modo, i dati e il loro utilizzo ci pongono di fronte a un cambio di epoca nella quale la Chiesa vuole tutelare i valori senza tempo di cui si fa portatrice”. Il modo in cui intende farlo, ha aggiunto, “è mettere al centro del dibattito pubblico il fatto che le macchine intelligenti possono surrogare alcune azioni umane, a volte portando grandi vantaggi, a volte generando effetti problematici”. Qual è la soluzione? “Questo complesso mondo”, ha concluso Benanti, “è che questo nuovo attore – l’algoritmo – possa diventare ‘trasparente’. Il tema non è come dare alla macchina la capacità di fare in autonomia quello che vuole, ma come vietarle di fare cose che non vogliamo che faccia”.


×

Iscriviti alla newsletter