Skip to main content

Opportunità e limiti dell’intelligenza artificiale secondo Elisabetta Trenta

trenta

Intelligenza artificiale, robot e droni stanno cambiando il nostro modo di vivere, di fare business e di intendere lo “spazio”, pure quello delle relazioni internazionali e della competizione globale. È “un nuovo paradigma” che ci pone di fronte a tante opportunità, ma anche ad altrettante sfide. Sull’intelligenza artificiale, una convinzione: l’ultimo click dovrà sempre spettare all’uomo. Parola del ministro della Difesa Elisabetta Trenta, intervenuta a Roma all’evento “Geopolitica del digitale” organizzato da Elettronica e The European House Ambrosetti.

LE MINACCE

Il contesto di riferimento è complesso, in continua e pericolosa evoluzione. Il presente, ha notato la Trenta, “ci pone dinanzi a minacce esterne e interne quali terrorismo, traffici illeciti di armi, cyber-crime, attacchi alle reti energetiche e infrastrutture critiche, ibride o non convenzionali, che rendono più pressante l’esigenza di poter disporre di uno strumento militare tecnologicamente avanzato, flessibile e armonizzato in un più ampio dispositivo di difesa e sicurezza collettiva, integrato al servizio del Paese”. Per la Difesa, ha chiarito il ministro, si tratta di “un importante cambio di paradigma”.

VERSO LA SOVRANITA’ TECNOLOGICA

“La componente militare che almeno fino alla fine del XX secolo è sempre stata il principale volàno dello sviluppo tecnologico – ha spiegato – oggi fatica a stare al passo delle grandi Tech-Company”. È una sfida da affrontare con decisione: “Risulta indispensabile accrescere il know how nazionale e sviluppare un adeguato grado di sovranità tecnologica”, la quale dovrà espandersi in molteplici ambiti. Tra questi, elenca la Trenta, ci sono l’intelligenza artificiale, i sistemi a guida remota, i robot, la sensoristica, i sateliti e la microelettronica avanzata. È l’Internet of things che avanza, rendendo necessario “trasferire il know how tecnologico allo stato dell’arte nei processi produttivi, in innovativi materiali e in nuovi modelli di business con caratteristiche sempre più duali”.

CINQUE CLUSTER SU CUI FARE RICERCA E INNOVAZIONE

Per questa ragione, il segretariato generale della Difesa, guidato oggi dal generale Nicolò Falsaperna, insieme allo Stato maggiore della Difesa, ha individuato cinque “aree tecnologiche prioritarie”, cinque cluster su cui selezionare progetti di ricerca e innovazione. Primo, il potenziamento delle capacità e protezione del soldato e supporto al veterano”. Secondo, “i sistemi autonomi e l’artificial intelligence”. Terzo, i sistemi satellitari, da cui dipende sempre di più la vita sulla Terra. Quarto, la cyber-security, “nuovo attuale e delicato campo di operazioni militari”, in cui “si raggruppano le tecnologie informatiche”, comprese l’emergente crittografia quantistica. Quinto, “le tecnologie per la sostenibilità e la resilienza energetica”. Sesto, infine, “le tecnologie disruptive tecnologie per la difesa, come sensori e sistemi innovativi”.

L’INTELLIGENZA ARTIFICIALE

Tra questi, il futuro sembra puntare deciso verso l’intelligenza artificiale. Eppure, permane più di qualche perplessità. Con l’IA, ha ricordato la Trenta, si intende “l’insieme delle innovazioni e delle tecniche aventi come obiettivo la riproduzione dell’intelligenza umana, che incrementerà l’utilizzo dei big data e metterà i robot nelle condizioni di imparare, percepire, conversare, operare, compensando le unità operative e logistiche”. Chiarito questo, ha spiegato il ministro, la prima questione riguarda la necessità per i governi di cooperare con le aziende private, “con conseguenti ed evidenti limitazioni anche di natura etica”. È il caso di Google, che a giungo, in seguito alle proteste dei propri dipendenti, ha annunciato che non avrebbe rinnovato il contratto con il Pentagono per il progetto Maven, un programma che sfrutta l’IA per analizzare le immagini acquisite dai droni della Difesa americana. Un esempio su tutti che dimostra la delicatezza del tema, nonché le preoccupazioni che l’innovazione può generare nella società. Al cuore del problema, ha notato il ministro, c’è il machine learning. Significa “far comprendere alla macchina come modificare il proprio comportamento o crearne di nuovi in funzione di come cambia l’ambiente circostante”. Ciò si basa su dati e algoritmi, i quali tuttavia “presentano ancora una discreta percentuale di errore”.

UN PROBLEMA ETICO

La questione è complessa, e si arricchisce di “limiti che ad oggi appaiono insuperabili”. Tra questi, c’è “l’allineamento ai valori umani, intesi come il complesso degli ideali, della morale e delle aspirazioni dell’uomo”, un obiettivo che sembra ancora lontano per i dispositivi dotati di IA. In altre parole, si tratta della “capacità della macchina intelligente di interpretare le situazioni che le si presentano dinanzi”. Da tutto ciò emerge un interrogativo: “È etico utilizzare l’intelligenza artificiale in ambito militare e, soprattutto, quale dovrà essere il livello di autonomia delle armi autonome?”. Il ministro, lo ha ammesso lei stessa, non ha una risposta. Eppure, “mantengo ferma una certezza: l’ultima azione, l’ultimo click, l’ultimo sì o l’ultimo no dovranno continuare ad rimanere una prerogativa umana”.



×

Iscriviti alla newsletter