Intelligenza artificiale e hyperwar, la rivoluzione spiegata dal generale Allen

Intelligenza artificiale e hyperwar, la rivoluzione spiegata dal generale Allen
In un editoriale per l'Ispi il generale John Allen, presidente di Brookings, già comandante della missione Nato Isaf, spiega rischi e opportunità dell'Ia nel mondo militare. La rivoluzione chiama in causa questioni etiche e morali che gli Stati democratici non possono ignorare

È entrata nella vita di tutti giorni, dagli elettrodomestici ai laboratori passando per gli uffici, le imprese, la finanza. Ora è pronta a cambiare il volto della dottrina militare. È l’intelligenza artificiale (Ai) la vera chiave di volta per capire la portata della rivoluzione tecnologica del XXI secolo. Ne è convinto John Allen, presidente di Brookings, generale a quattro stelle già comandante della missione Nato in Afghanistan (Isaf), che in un editoriale per l’Ispi ha rinvenuto proprio nell’AI “l’Issue to watch” del 2019.

Per chi, come Allen, ha speso una vita nei Marines, l’impatto che l’Ia sta avendo sulla dottrina militare americana deve sembrare a dir poco dirompente. “In passato il simbolo assoluto della superiorità militare degli Stati Uniti era la ‘Triade strategica’, ovvero i tre pilastri della sua strategia di deterrenza nucleare, squadriglie missilistiche, flotte di bombardieri, sommergibili dotati di missili balistici” – spiega il generale. Oggi questa triade è raddoppiata, e ai tre strumenti menzionati si devono aggiungere l’Ai, le analisi dei big data e il super computing. È una rivoluzione a tutto tondo. Come un tempo la dottrina militare è stata sconvolta dall’introduzione della cavalleria, del fucile a moschetto e delle radio comunicazioni, oggi i vecchi dettami dell’arte della guerra sono travolti dall’avvento di una tecnologia, l’Ai, che è pervasiva e sostituisce progressivamente e una volta per tutte l’uomo “dal processo di analisi ambientale, portando a valutazioni più accurate, ampie e a tempi di reazione molto più veloci”.

Allen definisce “Hyperwar” la nuova frontiera della guerra a tutto campo. Un termine non nuovo, utilizzato già da strateghi e generali per dare un nome all’impressionante estensione territoriale della II Guerra Mondiale. Non è però la geografia che segna una cesura fra il vecchio modo di concepire e condurre una guerra e l’hyperwar, bensì la velocità, l’efficacia, l’ampiezza di intervento permesse dall’uso congiunto dell’Intelligenza artificiale e di macchine cognitive. I robot killer spesso presi a immagine di un futuro distopico sul grande schermo sono nulla in confronto alle applicazioni militari dell’Ai, segnala l’ex generale americano. “Le armi in stile Terminator potrebbero ancora essere lontane, ma la tecnologia che le rende così letali non lo è affatto, e i droni oggi ne sono un esempio perfetto”.

Il grande stratega militare Carl von Clausewitz diceva che la natura della guerra rimane immutabile, ma il suo carattere cambia di continuo. L’introduzione dell’Ai nel settore militare rischia di stravolgere entrambi gli aspetti, dice il presidente di Brookings. Bisogna allora capire se si può e si deve dare una direzione al cambiamento. Qui, ricorda Allen, si pongono due questioni non trascurabili. La prima è di natura sociologica. L’Ai rimuoverà del tutto l’uomo dai processi decisionali? Non è questo il caso, al momento, degli Stati Uniti. “A dispetto del loro ampio ricorso alla tecnologia dei droni, gli Stati Uniti ad oggi richiedono un essere umano informato per ogni sistema che viene impiegato. È un punto morale di grande importanza sostenuto dai valori americani e dalle norme internazionali, e un limite voluto all’uso di certe tipologie di tecnologie”.

C’è poi una questione prettamente morale sottesa alla rivoluzione portata dall’Ai. La pervasività di questa tecnologia nella vita di tutti i giorni impone a chi ha la responsabilità della vita dei cittadini, anzitutto i governi, di indirizzare il progresso tecnologico per governarlo a beneficio delle persone. La comunità internazionale si è già mossa per regolare il progresso e imporre dei limiti, spesso senza fortuna. Strumenti come l’Ai, che permette di sostituire al giudizio umano l’automatismo delle macchine, possono creare danni enormi nelle mani di Stati illiberali che si sottraggono alle norme internazionali. È significativo lo stallo sulla regolamentazione del mondo cyber in seno all’Assemblea Generale dell’Onu fra i Paesi europei e i Paesi, come la Cina, dell’Organizzazione per la cooperazione di Shanghai (Sco), sempre pronti ad anteporre l’ordine sociale al diritto alla privacy e alla libertà di pensiero. Quando si parla di armi il rischio è ancora più evidente. “Governi illiberali e autoritari saranno sempre meno costretti – moralmente, eticamente o anche legalmente – a inserire principi e valori nella cosiddetta “catena della morte” spiega Allen nel suo editoriale per l’Ispi. I limiti etici all’uso dell’Ia in campo militare rischiano di apparire un freno per lo sviluppo tecnologico dei Paesi occidentali, conclude il generale, ma devono essere rivendicati con orgoglio di fronte a quegli Stati che “vorrebbero sgretolare la società occidentale usando ogni tipo di vantaggio tattico e strategico, qualunque sia il prezzo da pagare”.

ultima modifica: 2018-12-29T09:40:19+00:00 da Francesco Bechis

 

 

 

 

Chi ha letto questo articolo ha letto anche: