Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

Principi etici per l’Intelligenza artificiale. Ecco le regole del Pentagono

Nuovo invito del Pentagono ad alleati e partner per condividere i principi etici da applicare allo sviluppo di sistemi militari dotati di intelligenza artificiale. La corsa con Russia e Cina sull’IA corre veloce, ma non per questo gli Stati Uniti vogliono rinunciare alla definizione di limiti etici all’uso di armi autonome, robot e machine learning

Condividere i principi etici per l’intelligenza artificiale in campo militare e applicarli sin dalla progettazione dei nuovi sistemi. È l’invito rivolto ad alleati e partner (compresi quelli industriali) dal Pentagono, e in particolare da Alka Patel, capo delle politiche etiche del Joint Artificial Intelligence Center (Jaic), il centro di eccellenza di cui la Difesa Usa si è dotata nel 2018, attualmente affidato al generale Michael Groen.

A febbraio 2019, il Jaic ha prodotto la prima Ai Strategy, una tabella di marcia per accelerare l’impegno militare nel campo, discendente dalla più ampia National Defense Strategy. Un anno dopo (lo scorso febbraio), sulla base dei suggerimenti arrivati dal Defense Innovation Board (gruppo di esperti che supportano il Pentagono), il centro ha reso noti i cinque principi etici per l’intelligenza artificiale applicati ai sistemi militari. Poggiano tutti sul controllo umano costante, trasparente e verificabile degli assetti dotati di IA.

SE L’UOMO RESTA AL COMANDO

Li ha ricordati Patel, aprendo ieri l’evento organizzato dalla testata Defense One e dedicato all’intelligenza artificiale, il Genius Machine 2021. Si parte da responsible: il personale della Difesa eserciterà “appropriati livelli di giudizio e attenzione rimanendo responsabile di sviluppo, dispiegamento e uso di capacità che impiegano l’intelligenza artificiale”. In secondo luogo, con il termine equitable si afferma che “il dipartimento della Difesa adotterà misure deliberate per minimizzare bias non intenzionali nelle capacità Ia”.

Sottolineatura importante su formazione e addestramento: “Le capacità del dipartimento – spiega il terzo principio denominato traceable – saranno sviluppate e dispiegata in modo che il personale possieda un’appropriata comprensione delle tecnologie, dei processi di sviluppo e dei metodi operativi, inclusi metodologie trasparenti e verificabili, fonti di dati, procedure di progettazione e documentazione”.

TRASPARENZA DI SVILUPPI

Parola d’ordine “trasparenza”. Secondo il terzo principio etico (reliable), le capacità militari dotate di intelligenza artificiale “avranno usi espliciti e ben definite”. Inoltre, la sicurezza e l’efficacia di tali capacità “saranno soggette a test e verifiche durante l’intero ciclo delle loro vita operativa”. Infine, quinto principio (governable), si dovrà sempre consentire la disattivazione delle capacità che ricorrono a IA. Nel dettaglio, si specifica che progettazione e sviluppo dovranno includere sistemi e procedure che permettano sempre “la capacità di rilevare ed evitare conseguenze indesiderate” e di “disattivare quei sistemi che dimostrano un comportamento non intenzionale”.

LA CONDIVISIONE

Patel ha sottolineato che i principi etici devono essere tenuti in considerazione sin dalla progettazione dei sistemi, invitando tutti alla piena condivisione di tali norme. L’obiettivo è diffonderli trasversalmente a tutte le componenti della Difesa Usa e condividerli con il mondo dell’industria, della ricerca, con partner e alleati.

RIFORME IN VISTA

I nuovi principi etici si inseriscono nel processo di riforma che coinvolge il Jaic. A fine dicembre il Congresso ha approvato il maxi budget per il Pentagono 2021, pari a 696 miliardi di dollari. È accompagnato da una richiesta specifica: presentare entro quattro mesi un report su tutte le iniziative dedicate all’IA. L’obiettivo è infatti fare ordine tra i numerosi programmi in campo, anche considerando che pressoché tutti i progetti recenti hanno in sé elementi legati all’intelligenza artificiale.

IL PIANO DEL PENTAGONO

Già a luglio, l’ispettorato generale del dipartimento della Difesa notava che “un processo di gestione dell’inventario dei progetti di intelligenza artificiale per identificare e sviluppare una linea comune è necessario per mantenere la consapevolezza dei tipi e del numero di programmi in tutto il Pentagono”. Tra le righe c’è anche l’obiettivo di rendere il Jaic sempre più la guida dei vari impegni del Pentagono nel campo. Nella stessa nota di luglio l’ispettorato generale spiegava la necessità di aumentarne la capacità per coprire tutti i progetti che rientrano nelle competenze del Pentagono. Per questo, a novembre, il generale Groen annunciava il piano per un passaggio a “Jaic 2.0”, finalizzato ad affidargli un più ampio ruolo di coordinamento, aumentando e stabilizzando i contatti con le articolazioni della Difesa, approfondendo l’analisi del procurement e offrendo servizi di consulenza e assistenza alle varie Forze armate.

LA COMPETIZIONE GLOBALE

Era settembre 2017 quando Vladimir Putin affermò che “chi svilupperà la migliore intelligenza artificiale diventerà il padrone del mondo”. Tre mesi prima, il Consiglio di Stato della Repubblica popolare cinese aveva rilasciato il Piano di sviluppo per una nuova generazione d’intelligenza artificiale (Aidp), identificando un obiettivo chiaro: diventare entro il 2030 il principale centro d’innovazione nel campo dell’intelligenza artificiale. A inizio maggio, la Nato ha pubblicato il rapporto “Science & Technology Trends: 2020-2040”, dedicato alla tecnologie “disruptive” che cambieranno la guerra del futuro. C’è anche l’intelligenza artificiale, ritenuta capace nel giro di un decennio di rivoluzionare il confronto militare con effetti sulla competizione globale paragonabili all’ingresso nel confronto geopolitico della bomba atomica.

×

Iscriviti alla newsletter