Skip to main content

Dal Processo di Hiroshima al Papa. L’IA al G7 italiano

Il pontefice, per la prima volta al G7, ha portato il suo approccio etico a questa tecnologia dirompente aprendo la sessione dedicata. Leader al lavoro sulla linea uscita dal summit giapponese dell’anno scorso, con attenzione al dialogo con il privato

“Non possiamo nascondere il rischio concreto, poiché insito nel suo meccanismo fondamentale, che l’intelligenza artificiale limiti la visione del mondo a realtà esprimibili in numeri e racchiuse in categorie preconfezionate, estromettendo l’apporto di altre forme di verità e imponendo modelli antropologici, socio-economici e culturali uniformi”. Lo ha detto papa Francesco parlando al G7.

“Il paradigma tecnologico incarnato dall’intelligenza artificiale rischia allora di fare spazio a un paradigma ben più pericoloso, che ho già identificato con il nome di paradigma tecnocratico”, ha proseguito nel suo intervento. “Non possiamo permettere a uno strumento così potente e così indispensabile come l’intelligenza artificiale di rinforzare un tale paradigma, ma anzi, dobbiamo fare dell’intelligenza artificiale un baluardo proprio contro la sua espansione”, ha spiegato ancora il pontefice definendo “urgente” un’azione politica e soffermandosi su questioni come “il rischio di legittimare delle fake news e di irrobustire il vantaggio di una cultura dominante” e quello “di minare altresì il processo educativo in nuce”.

Quello del pontefice è stato l’unico intervento pubblico di una sessione svoltasi poi a porte chiuse dopo i ringraziamenti della padrona di casa, Giorgia Meloni, presidente del Consiglio.

Il punto di partenza del summit, per quanto riguarda l’Intelligenza Artificiale, è stato il Processo di Hiroshima, avviato l’anno scorso dalla presidenza giapponese, con l’introduzione di un codice etico volontario per le aziende e le istituzioni pubbliche che utilizzano questa tecnologia. Alla ministeriale di Trento, ad aprile, i Sette avevano concordato sul fatto che lo sviluppo e l’uso dei sistemi di intelligenza artificiale non possano prescindere da considerazioni etiche e dal rispetto dei valori democratici, dalla protezione dei diritti umani e delle libertà fondamentali, e allo stesso tempo, prevenendo e mitigando possibili abusi e usi impropri.

Un approccio etico che però non può far passare in secondo piano gli attori privati. Basti pensare che pochi giorni fa il colosso americano Cisco ha lanciato un fondo di investimento globale da 1 miliardo di dollari, lo stesso importo stanziato dal governo italiano.



Exit mobile version