Uno strumento per considerare responsabilità e conseguenze dalla progettazione fino all’utilizzo di un sistema di Intelligenza artificiale, tecnologia di importanza primaria per la competitività degli Stati Uniti. Così la Difesa americana mette i paletti per lo sviluppo di un’IA eticamente valida e prova a conquistare la fiducia di aziende e pubblico

Un’intelligenza artificiale (IA) da progettare, sviluppare e implementare su fondamenta strettamente etiche. Questo è lo scopo dell’Iniziativa per un’IA responsabile, una nuova serie di linee guida pubblicate dall’Unità di innovazione della Difesa americana, ossia il braccio del Pentagono che assegna i contratti alle compagnie private.

Il documento è pensato per fornire alle aziende un processo dettagliato da seguire per l’intero ciclo di vita di un’IA. Ci sono procedure per identificare chi potrebbe usare una data tecnologia, chi potrebbe esserne danneggiato, quali potrebbero essere i danni e come evitarli – sia prima della costruzione di un sistema, sia dopo che entra in funzione.

Si tratta di “un utile punto di partenza per rendere operativi i principi etici del [Dipartimento di Difesa] per l’IA” presentati l’anno scorso, spiega il documento. Che avverte: le linee guida previste, derivate da un anno e mezzo di ricerca e collaborazione con le aziende, non sono definitive e andranno aggiornate col tempo. E non sono certo una soluzione definitiva.

“[Queste] linee guida non possono offrire modi universalmente affidabili per ‘correggere’ carenze come dati distorti, algoritmi selezionati in modo inappropriato o applicazioni mal definite in ogni situazione”. Inoltre, alcuni sistemi proposti per questioni di sicurezza nazionale “potrebbero non avere un percorso per un’implementazione responsabile”.

Tuttavia, la decisione delle singole aziende di non perseguire una data capacità di IA “dovrebbe essere un risultato accettabile dell’adesione alle linee guida”. Tradotto: il contractor può collaborare con il governo e al contempo stabilire internamente, sulla base dei propri princìpi etici, su quali terreni non avventurarsi.

L’idea alla base del Pentagono è rinsaldare il rapporto di fiducia con le aziende che ci lavorano, dato che lo sviluppo dell’IA è pregno di implicazioni etiche scottanti, specie se si tratta di scopi militari. Dunque occorre fare il possibile per garantire l’eticità di un sistema IA, permettendo al contempo lo sviluppo e il dispiegamento di una tecnologia assolutamente essenziale.

La questione è pressante: lunedì l’agenzia di controspionaggio e sicurezza più importante degli Usa ha identificato cinque settori vitali per gli interessi americani e vulnerabili alle azioni degli avversari. Si tratta di “tecnologie che potrebbero determinare se l’America rimarrà la superpotenza leader o sarà eclissata nel prossimo paio d’anni da competitor strategici, […] come Cina e Russia”. Nell’ordine: IA, bioeconomia, sistemi autonomi, informatica quantistica e semiconduttori.

Non è un caso che l’IA figuri per prima. La tecnologia – che nella sua essenza tratta di dotare i computer di capacità cognitive e problem-solving creativo, permettendogli di fare lavori tipicamente assegnati all’uomo – ha applicazioni potenziali quasi illimitate. Molti dei processi di un caccia F-35 dipendono dall’IA, per esempio, come anche l’analisi delle quantità di dati immense che passano attraverso il setaccio delle agenzie di intelligence. Ma ad ottobre un ex esperto della Difesa americana si è licenziato in segno di protesta e ha indicato il ritardo nello sviluppo dell’IA, dovuto anche al dibattito etico, come uno dei rischi più grandi per il sistema-Paese.

I programmi IA del Pentagono hanno già subìto battute d’arresto. Per esempio, l’idea di lavorare a un “cervello” digitale che sapesse analizzare autonomamente i contenuti dei filmati dei droni, un programma noto come Project Maven, non piacque agli impiegati di Google nel 2018. Una dozzina si licenziarono, un migliaio parteciparono a una protesta, e l’azienda non rinnovò il contratto l’anno successivo.

La vicenda portò Google a tirarsi fuori dalla gara per il massiccio programma di cloud computing per la difesa, il Joint Enterprise Defense Infrastructure (Jedi), citando i princìpi etici riguardo lo sviluppo dell’IA. Il contratto fu al centro di una contesa tra Microsoft e Amazon poi risolta in un nulla di fatto. Oggi Jedi non esiste più ed è stato sostituito dal Joint Warfighting Cloud Capability (Jwcc), un programma per cui si sta proponendo anche Google. E anche se gli impiegati stanno mugugnando internamente, martedì il Ceo dell’azienda Sundar Pichai ha difeso la mossa.

Condividi tramite