Intelligenza artificiale e difesa. Quel dialogo che non ti aspetti fra ministro e cardinale

Intelligenza artificiale e difesa. Quel dialogo che non ti aspetti fra ministro e cardinale
Il ministro della Difesa Lorenzo Guerini è intervenuto alla giornata di studio “Intelligenza artificiale, sicurezza, responsabilità etica”, durante la quale il cardinale Gianfranco Ravasi, presidente del Pontificio Consiglio della Cultura, ha tenuto una Lectio magistralis sul tema. Ecco che cosa si è detto

C’era anche il neo ministro della Difesa, Lorenzo Guerini, alla giornata di studio “Intelligenza artificiale, sicurezza, responsabilità etica”, aperta dalla Lectio magistralis del cardinale Gianfranco Ravasi, presidente del Pontificio Consiglio della Cultura. A fare gli onori di casa al ministro, la cui partecipazione non era in programma, il generale Nicolò Falsaperna, a capo del Segretariato generale della Difesa e Direzione Generale degli Armamenti, che ha organizzato l’evento assieme al Pontificio Consiglio della Cultura.

CAPACITÀ SEMPRE PIÙ AUTONOME

“Tecnologie quali il Machine learning, il Natural language processing, l’Internet of things, l’High performance computing”, ha sottolineato il ministro, “consentono di creare prodotti con capacità di intelligenza artificiale sempre più autonoma, in grado di interpretare fenomeni complessi utilizzando algoritmi matematici che processano immensi volumi di dati – economici, finanziari, sociali, culturali – decisivi per la nostra vita, spesso dimenticando che gli stessi sono una creazione umana, e in quanto tali suscettibili di errore”.

LE IMPLICAZIONI ETICHE

“Nella rincorsa costante verso un’automazione sempre più spinta e pervasiva dobbiamo porci una domanda: fino a che punto le applicazioni di intelligenza artificiale (IA) possono essere lasciate libere di agire in autonomia? E soprattutto, fino a che punto possiamo consentire questo in ambito militare?”, ha detto il ministro della Difesa nel corso del suo intervento, prima di ascoltare con vivo interesse il cardinale Ravasi. “Sappiamo – ha spiegato – che sistemi di armamento autonomo già esistono e non rappresentano una novità: da decenni le Forze Armate li utilizzano, seppur con differenti livelli di autonomia e per attività prevalentemente non letali, in molti campi di applicazione, quali la ricerca e soccorso, il disinnesco di ordigni esplosivi, la ricognizione”.

“È evidente che in campo militare esistono significative implicazioni etiche e legali legate alla sempre più realistica capacità della macchina di ragionare come uomini. Quello militare – ha aggiunto – è un ambito in cui, in un prossimo futuro, lo stesso processo decisionale per la scelta dell’uso della forza potrebbe essere affidato ad un sistema d’arma dotato di un elevato livello di autonomia.”

QUEL CHE SI È FATTO

Il ministro della Difesa ha poi spiegato che sul tema la Commissione Giuridica della Ue si è già espressa, ravvisando la necessità di individuare un adeguato sistema giuridico entro il quale poter collocare la robotica autonoma, per regolamentare fenomeni che nascondono grandi incognite. “Qualunque sarà l’evoluzione normativa permane, allo stato attuale, qualche perplessità sull’utilizzo spinto dei dispositivi di intelligenza artificiale, e bisognerà definire in modo chiaro e condiviso i limiti e le condizioni di autonomia di tali macchine per la verificabilità e la tracciabilità del loro processo decisionale”, ha aggiunto.

ATTENZIONE POLITICA AL TEMA

“Fino ad allora – ha concluso Guerini, sottolineando la necessità di attenzione politica al tema – ritengo che il ruolo umano di supervisore delle decisioni e controllo delle operazioni rimarrà decisivo. Allo stesso modo tecnologia e etica devono procedere insieme per guidare l’innovazione verso un autentico sviluppo umano che non danneggi le persone e non crei forti disequilibri globali. Non bisogna dimenticare che l’uomo deve essere al centro di ogni processo e che la macchina deve restare al suo servizio”.

UNA REALTÀ SU CUI INTERROGARSI

L’intelligenza artificiale pervade sempre più le nostre vite e aumenta il suo impatto sulla società, destando nuove preoccupazioni e situazioni impreviste da affrontare. L’evento di oggi ha voluto esaminare l’argomento con un approccio multidisciplinare, tenendo conto di interessi sociali ed umani. “Anche su neuroscienza e intelligenza artificiale è fondamentale interrogarsi. Oggi siamo in un contesto – ha detto nella sua ampia Lectio il cardinale Ravasi – dove il soggetto è vincitore sull’oggetto, decide ciò che bene o male liberamente, e dove la verità ci precede, ci supera e noi abbiamo il compito di ricercarla”. “In passato c’era una distinzione netta tra cervello e mente, mentre oggi dominano modelli identitari, dove mente e anima possono essere ridotti a dato neuronale (che ha numeri grandi quanto le stelle!)”.

LE PAROLE DI RAVASI

Nell’intelligenza artificiale – prosegue Ravasi – siamo agli inizi. Le macchine IA lavorano con risultati straordinari, positivi, pensiamo alla robotica in medicina, alle attività produttive o alle funzioni gestionali e amministrative”. “Tutto questo tuttavia genera problemi di altro genere, etici. La vera domanda è: come ci si deve comportare davanti a questa intelligenza artificiale forte, dotata di capacità decisionali autonome, di fronte ad eventuali scenari che le si parano davanti e i cui confini devono essere definiti dalla macchina stessa con una decisione che può influire anche su creature umane? Questa è una questione che dovrà essere affrontata. L’algoritmo aperto permette infatti alla macchina di avere un’autonomia di scelta che pone risvolti di tipo etico”.

APPELLO AGLI UOMINI DI FEDE E CULTURA

“Noi uomini di chiesa e di cultura dobbiamo lanciare un appello perché l’uomo entri in questo particolare settore, mettendo assieme due realtà diverse, affinché ci sia una risposta veramente umana per lo sviluppo dell’intelligenza artificiale”, ha detto in conclusione il cardinale Gianfranco Ravasi, che per esemplificare tutto questo si è avvalso, nella parte finale del suo discorso, degli esempi forniti dal Mahatma Gandhi da un lato e da Steve Jobs dall’altro.

GANDHI E JOBS

Secondo il primo infatti “l’uomo si distruggerà con sette cose: politica senza principi, ricchezza senza lavoro, intelligenza senza sapienza, affari senta etica, scienza senza umanità, religione senza fede, amore senza sacrificio di sé”. Quanto a Steve Jobs il discorso citato da Ravasi, per esemplificare la necessità di unire dimensioni differenti, è quello pronunciato nel 2005 ad Harvard, quando il cofondatore di Apple parlò dell’ingegnere rinascimentale Leonardo da Vinci e disse: “La tecnologia da sola non basta è il connubio tra la tecnologia e le arti liberali, è il connubio tra la scienza e l’umanesimo a darci quel risultato, l’unico possibile, che ci fa sorgere un canto dal cuore”.

(fonte foto: Ministero della Difesa)

ultima modifica: 2019-09-24T08:40:24+00:00 da Michela Della Maggesa

 

 

 

Chi ha letto questo articolo ha letto anche: