Armi autonome, robot e machine learning. La competizione con Mosca e Pechino si fa sentire anche sull'intelligenza artificiale. Il Pentagono non cede però al fascino della corsa senza limiti e si appresta a rilasciare regole etiche stringenti che vuole condividere con alleati e partner. Anche la guerra 4.0 ha bisogno di paletti

L’attivismo di Cina e Russia sugli impieghi militari delle tecnologie di intelligenza artificiale preoccupa gli Stati Uniti. Non per questo, tuttavia, Washington è disposta a rinunciare alla definizione di limiti etici all’uso di armi autonome, coinvolgendo sul punto anche alleati e partner. E così, “presto”, il Pentagono adotterà regole dettagliate sull’utilizzo e lo sviluppo dell’intelligenza artificiale nel campo della Difesa. Servirà come riferimento per ogni sforzo nel settore, ormai rinnovato dagli Usa alla luce della nuova competizione globale. A settembre del 2017, era stato Vladimir Putin ad affermare che “chi svilupperà la migliore intelligenza artificiale diventerà il padrone del mondo”.

L’ASSETTO ISTITUZIONALE

Le regole in arrivo seguiranno i suggerimenti pervenuti lo scorso ottobre dal Defense innovation board, l’organo indipendente di esperti nel campo dell’innovazione di cui si avvale dal 2016 il segretario alla Difesa degli Stati Uniti. A seguire il dossier per il Pentagono c’è il Centro per l’intelligenza artificiale (Jaic), guidato dal generale John “Jack” Shanahan e operativo dal 2018 con l’obiettivo di accelerare l’integrazione delle tecnologia di Ia nelle Forze armate statunitensi. Il Jaic opera sulla strada segnata dalla “Artificial intelligence strategy”, rilasciata esattamente due anni fa dalla Difesa Usa sulla scia della più ampia National Defense Strategy dell’anno prima.

IL CONTROLLO UMANO

Come ha spiegato un portavoce del Jaic, le “regole etiche” che verranno adottate dal Pentagono seguiranno piuttosto fedelmente i suggerimenti arrivati dagli esperti del Dib. Come nota DefenseOne, sito specializzato che ha ottenuto maggiori dettagli sul tema, la bozza del board enfatizzava il controllo umano dei sistemi di intelligenza artificiale. “Gli esseri umani – si leggeva – devono esercitare appropriati livelli di giudizio e rimanere responsabili dello sviluppo, del dispiegamento, dell’uso e degli effetti dei sistemi di Ia del dipartimento della Difesa”. Il tema è centrale nella prospettiva di tecnologie di intelligenza artificiale con applicazioni militari, dovendo rimanere sempre possibile l’attribuzione di responsabilità.

I SUGGERIMENTI PER IL PENTAGONO…

Per questo, notano gli esperti, i suggerimenti del Dip appaiono più specifici e stringenti rispetto alle dichiarazioni rilasciate sul tema dai colossi privati. Non a caso, il board raccomanda anche di tutelare la trasparenza dei sistemi, così che sia sempre possibile ricostruire il processo attraverso cui il software ha preso una decisione. Particolare enfasi è posta inoltre sul “dominio di utilizzo esplicito e ben definito”, definizione che vuole circoscrivere l’ambito di uso militare. In altre parole, nota ancora DefenseOne, si vuole impedire ai software sviluppati per attività civili (e dunque con controlli eventualmente meno rigidi) di trovare applicazione in ambito militare.

…CON I DUBBI DEGLI ESPERTI

Sulle raccomandazioni del Dip il parere degli esperti è sostanzialmente positivo. A generare qualche dubbio è la capacità del Pentagono di farle proprie nei molteplici apparati di cui dispone, e soprattutto la possibilità di affermarle in ambito internazionale. Secondo Rebecca Crootof, professoressa della School of Law dell’Università di Richmond, “sebbene sia grandioso che i principi del Dib affermino l’importanza del diritto internazionale, ci sono un certo numero di settori in cui non è ancora chiaro cosa richieda lo stesso per i sistemi di intelligenza artificiale o per questi sistemi d’arma con capacità sempre più autonome”.

L’INVITO AGLI ALLEATI…

Per questo, Crootof suggerisce “un impegno statunitense” a promuovere il dibattito internazionale “sulla responsabilità per incidenti causati” da tali assetti. D’altra parte, a preoccupare “la comunità del controllo degli armamenti” è soprattutto “l’incontrollabile rischio di escalation” su applicazioni militari dell’Ia, ha spiegato Frank Sauer dell’International committee for robot arms control. Non è un caso che il generale Shanahan, comandante del Jaic, abbia fatto visita lo scorso mese in Europa. Il tour era finalizzato a tracciare con i partner del Vecchio continente la strada da seguire per integrare le tecnologie di Ia al campo militare e della sicurezza. Una sorta di chiamata alla collaborazione a fronte dell’attivismo dimostrato da Mosca e Pechino.

…CONTRO RUSSIA E CINA

D’altra parte, sin dal rilascio della Artificial intelligence strategy, il dipartimento della Difesa si è reso protagonista di un attivismo dottrinale e strategico (oltre che tecnologico). Nasce da una constatazione: Russia e Cina (riconosciuti quali competitor su scala globale) hanno realizzato imponenti investimenti nella modernizzazione delle Forze armate, compreso il campo dell’Ia. L’obiettivo è dunque scritto a chiare lettere: “Gli Stati Uniti, insieme ad alleati e partner, devono adottare l’Ia per mantenere la propria posizione strategia, per prevalere sui futuri campi di battaglia e per salvaguardare un ordine internazionale aperto e libero”.

GLI SFORZI CINESI

I timori guardano soprattutto a Oriente. Già a luglio del 2017, il Consiglio di Stato cinese emanò il Piano di sviluppo per una nuova generazione d’intelligenza artificiale (Aidp). Derivava dalle indicazioni già contenute nel programma “Made in China 2025” rilasciato due anni prima, documento di riferimento per la presidenza di Xi Jinping, e riferito anche al settore militare. Un report del Center for a New American Security (Cnas) dello scorso anno ha illustrato come la spinta politica si sia tradotta in impegno industriale e scientifico. Alla creazione nel 2018 di due grandi centri di ricerca sul tema si sarebbe aggiunto da tempo il dispiegamento e l’export di “piattaforme armate e sistemi di sorveglianza che ricorrono all’Ia”. Tra questi c’è il Blowfish A2, il drone militare (“dotato di quantità significative di combattimento autonomo”) realizzato dall’azienda Ziyan e venduto agli Emirati Arabi, con prospettive di export anche per Arabia Saudita e Pakistan.

DUE MODELLI A CONFRONTO

Nonostante gli sforzi americani, rimane comunque il rischio di non riuscire a mantenere la rapidità cinese, soprattutto nel settore pubblico. Lo spiegava a inizio dicembre un report del Centro studi internazionali (CeSI). Il Dragone “agisce come vera e propria cabina di regia per lo sviluppo dell’intelligenza artificiale, allocando ingenti capitali pubblici e formando talenti all’interno delle proprie state-owned tech companies”. Gli Usa, come gli europei, basano lo sviluppo “sulla libera competizione tra imprese private, che dialogano con l’amministrazione statale cercando di capirne i bisogni e gareggiando per offrire le proprie soluzioni”. Da qui nasce il gap interno all’Occidente, per cui i privati appaiono molto più avanti rispetto alle amministrazioni pubbliche. Come risolverlo? “La partnership pubblico-privata e l’outsourcing di alcuni servizi – propone il CeSI – possono essere lo strumento principe per colmare tale gap”.

Condividi tramite