I progressi dell’intelligenza artificiale permettono già oggi di sviluppare robot killer in grado non solo di acquisire e colpire bersagli ma anche di comprendere la situazione e decidere in modo completamente autonomo se aprire il fuoco o meno. Ne abbiamo già parlato su Formiche.net, descrivendo le ricerche ed i prototipi già sviluppati ma anche un futuro tutt’altro che immaginario in cui sciami di robot killer piombano da soli sul nemico, sistemi antiaerei scelgono se abbattere o meno missili o velivoli, robot cecchini identificano sospetti terroristi in mezzo alla folla e decidono come e quando farli fuori.
ll presidente eletto Trump sarà presto chiamato a decidere se le forze armate Usa proseguiranno gli investimenti in queste tecnologie passando dalla fase sperimentale allo sviluppo ed al dispiegamento di eserciti di armi autonome pronte ad essere scagliate sui nemici dell’America.
Per gli strateghi militari, robot micidiali in grado di identificare e colpire autonomamente i bersagli non sono altro che il logico punto di arrivo di decenni di investimenti. Questi hanno portato allo sviluppo di armi sempre più intelligenti: dai missili che si autopilotano basandosi sul calore, sul rumore o sulla riflettività radar del bersaglio più vicino, ai droni che – guidati in remoto da un pilota al sicuro nella base Creech a Indian Spring, Nevada – attaccano e colpiscono convogli di terroristi nel deserto libico, in Afghanistan o in Irak.
Fino a oggi, tutte queste armi hanno richiesto il controllo e la supervisione di un essere umano, chiamato a prendere la decisione finale: scegliere se premere il grilletto o il bottone che lancia un missile in un’area dove è presente un obiettivo che ha identificato certamente come nemico e che non si trova pericolosamente vicino a mezzi civili e persone innocenti.
Ma i progressi dell’informatica rendono sempre più intelligenti le cose elettroniche che ci circondano. Google sta da tempo sperimentando con le automobili che si guidano da sole, Tesla sta recuperando il terreno perduto. Nei nostri smartphone, Siri, Cortana, Google Now e Alexa sono sempre pronte ad ascoltare ogni nostro problema e a proporci le risposte che loro ritengono siano più utili per le nostre esigenze (e per quelle dei produttori che pagano la pubblicità). Gli animali domestici di buona famiglia lasciati a casa da soli sono monitorati da telecamere che ne calcolano il movimento e la salute, che distribuiscono cibo e che occasionalmente fanno partire sistemi di pulizia automatica o nastri registrati con la voce del padrone. Sono già in vendita frigoriferi in grado di identificare e incrociare il proprio contenuto con il consumo della famiglia e inviare ordini a supermercati online per il rifornimento delle derrate che cominciano a scarseggiare. Il tutto senza intervento umano.
È evidente che si sta cercando di integrare questi algoritmi civili sempre più intelligenti anche nei sistemi d’arma. Ad esempio gli algoritmi di riconoscimento facciale che oggi possono riconoscere il proprietario e sbloccare telefoni, porte e computer, sono già stati integrati dal Pentagono in droni in grado di identificare il volto di un terrorista e permettere di farlo secco.
I falchi di Washington presentano queste nuove tecnologie addirittura per la loro valenza umanitaria: non sarà necessario mandare gli scarponi dei ragazzi americani su un remoto campo di battaglia per vederli tornare indietro in aerei da trasporto carichi di bare. E non sarà nemmeno necessario mantenersi amiche le nazioni, come l’odiato regime di Assad o – peggio – la Russia, che restano disponibili a mettere i loro scarponi sul campo per combattere ISIS al posto di quelli dei bravi ragazzi americani.
Ma le associazioni per la difesa dei diritti umani non la pensano come i falchi. Se ne sta già discutendo in 78 nazioni, e già 19 di queste si sono pronunciate ufficialmente per il bando delle armi killer. Fra queste anche alcune i cui cieli sono già solcati dai droni killer americani, come l’Afghanistan e lo Yemen. In Italia se ne discute dal 2013, ma fino ad ora il Parlamento è risultato distratto da trivelle, modifiche costituzionali e leggi elettorali.
Questi robot in grado di prendere decisioni di vita e di morte non rappresentano semplicemente una nuova arma da inserire nei già ben forniti arsenali mondiali, ma rappresentano una rivoluzione del paradigma che prevede la responsabilità di una persona fisica dietro la decisione di uccidere un suo simile. Le Convenzioni di Ginevra caricano oggi sulle spalle di chi è dietro il grilletto l’onere di, distinguere fra un nemico ostile e un soldato ferito, disarmato o che si sta arrendendo. Sempre chi ha il dito sul grilletto ha il dovere di valutare se aprire il fuoco contro un nemico “possa causare perdite di vite umane o danni eccessivi ai civili rispetto al vantaggio militare che ne potrebbe derivare” (art. 52 e 51.5.b del Protocollo Aggiuntivo I).
Si dice che i robot killer possano salvare vite umane, perché sostituirebbero le preziose vite dei soldati in missioni ad alto rischio; ma proprio diminuendo i rischi connessi con l’uso di soldati in carne e ossa aumenterebbe la propensione dei vertici militari a scatenare azioni belliche senza l’imbarazzo di dover poi giustificare il rientro di bare. Inoltre, non possedendo capacità di giudizio autonomo, queste macchine – come i droidi ED-209 del film Robocop di Paul Verhoeven – non saranno in grado di disobbedire agli ordini sbagliati come fece Friederich Paulus, comandante della Sesta Armata Wehrmacht, davanti a Stalingrado o i soldati egiziani che rifiutarono di sparare sui contestatori durante la Primavera Araba.
Fra le domande cui i falchi non sanno – o non vogliono – rispondere ci sono queste: “Cosa succede se un errore di programmazione provoca l’assassinio di soldati amici?” oppure “Chi è responsabile quando un robot killer causa vittime civili?”. In generale: “Come si può garantire che le armi autonome siano programmate in modo da dover rispettare sempre le Convenzioni sui diritti umani e le leggi internazionali di guerra?”.
Questo non è certo un problema esclusivamente americano: 40 nazioni, inclusa l’Italia, stanno sviluppando robotica militare. Da un anno le sentinelle robot SGR-A1 – nate da una collaborazione fra l’Università di Seoul e la Samsung – sono dispiegate nella zona demilitarizzata al confine delle due Coree, interpretano autonomamente i segnali che giungono dai sensori ottici, infrarossi, laser e radar, li elaborano secondo la propria programmazione, decidono se si tratta di una infiltrazione dell’odiata Corea del Nord e mettono in atto la propria risposta.
È però certo che gli Stati Uniti sono ora all’avanguardia nello sviluppo di queste tecnologie, e la decisione che presto Trump dovrà prendere influenzerà l’intero scenario in cui potrebbero muoversi i robot killer.
Purtroppo dalla prossima amministrazione USA giungono già i primi segnali. E non sono incoraggianti. Steven Groves, assegnato al transition team del Dipartimento di Stato, ha già dichiarato che gli Stati Uniti non solo dovranno opporsi al bando delle armi intelligenti, ma dovranno aprire la strada verso la loro diffusione. “Non ratificheremo alcun protocollo per il bando delle armi autonome che stiamo sviluppando. Perché dovremmo farlo quando i nostri concorrenti stanno lavorando sugli stessi sistemi d’arma ?” Groves ha sottolineato che la sua è una posizione personale, ma insiste che i robot killer sono “l’unico mezzo col quale gli Stati Uniti, nel corso dei prossimi conflitti, potranno mantenere il vantaggio tattico e strategico sui propri nemici”.
Intanto, l’attuale inquilino della Casa Bianca ha scelto di tergiversare: ha richiesto una analisi di tutti gli aspetti etici e legali connessi con l’impiego di armi autonome, che però certamente non sarà conclusa entro la fine del suo mandato. Il Premio Nobel per la Pace ha anche ordinato al Pentagono di continuare lo sviluppo sperimentale purché i nuovi prototipi non siano impiegati in combattimenti reali ratificando la direttiva 3000.09 emessa nel 2012 che prevede la sperimentazione ma non l’impiego pratico di armi in grado di agire in modo completamente indipendente.
In questo ambito, è nato un nuovo missile antinave a lungo raggio della Lockheed Martin in grado di evitare i radar nemici manovrando in modo autonomo. Il Dipartimento Ricerca Navale della Marina ha realizzato delle navi autonome da lanciare in massa su un obiettivo per saturarne le difese. Ciascuna di queste agili imbarcazioni è in grado di intercettare navi sconosciute, decidere autonomamente se si tratta di amici o nemici ed eventualmente aprire il fuoco “con limitato intervento umano”.
Ma i militari stanno valutando l’impiego di armi autonome in un ambito che può compromettere addirittura la stabilità e la sicurezza internazionale: i robot killer possono essere lanciati con accelerazioni incompatibili con la fisiologia umana e raggiungere obiettivi nucleari strategici nemici a velocità supersoniche. Un attacco repentino sui sistemi di armi di distruzione di massa dell’avversario lo renderebbe vulnerabile ad attacchi successivi annullando ogni possibilità di ritorsione nucleare. In queste condizioni, verrebbero meno le ragioni di deterrenza basate sulla teoria della Mutua Distruzione Assicurata che ci hanno permesso di sopravvivere alla guerra fredda e di arrivare vivi fino a oggi.
La direttiva 3000.09 – controfirmata da Obama il 21 novembre 2012 sul dispiegamento di armi autonome in scenari reali – è destinata a scadere entro 5 anni ed è già previsto che debba necessariamente essere ripresentata, cancellata o modificata. Questo significa che l’amministrazione Trump avrà pieno mandato per decidere sule nuove politiche sulla sperimentazione e – soprattutto – sull’impiego delle armi killer.
Donald Trump dovrà decidere entro i primi dieci mesi del suo mandato se schierare sul campo robot indipendenti che non devono chiedere il permesso per sparare, che non temono rappresaglie e – soprattutto – che non hanno paura di essere processati e condannati per crimini di guerra.
[youtube width=”800″ height=”344″]http://www.youtube.com/watch?v=DrSIh1J_F78[/youtube]