L’esperto dell’Atlantic Council prende posizione opposta a coloro che vedono nei sistemi d’arma autonomi problemi di natura etico-morale. Spiegando perchè questi problemi non sussistano ed evidenziando i rischi di questo approccio
L’Intelligenza Artificiale e il suo impiego in ambito militare rappresentano ad oggi una sfida per i governi delle principali potenze mondiale. Ma oltre alla questione puramente tecnologica, vi è anche un aspetto squisitamente morale. Da una parte infatti c’è un fronte di sostenitori dell’utilizzo di simili tecnologie sul campo di battaglia per conseguire la vittoria limitando le perdite umane, fronte appoggiato da personalità del calibro di Kathleen Hicks, vice segretario alla Difesa del governo statunitense, la quale in un discorso pronunciato nell’agosto di quest’anno ha affermato che “per essere all’avanguardia, creeremo un nuovo stato dell’arte, proprio come l’America ha già fatto in passato, facendo leva su sistemi autonomi e in grado di reagire in tutti i settori, che sono meno costosi, mettono meno persone sulla linea del fuoco e possono essere modificati, aggiornati o migliorati con tempi di consegna sostanzialmente più brevi”. Dall’altra però vi è anche una compagine di oppositori che combatte contro la diffusione dei lethal autonomous weapon systems (Laws) per questioni di carattere etico. È contro questi ultimi che si schiera Thomas Mannes, non-resident senior fellow dello Scowcroft Center for Strategy and Security dell’Atlantic Council, all’interno di un articolo con un titolo che è di per sé una netta presa di posizione: “Autonomous Weapons Are The Moral Choice”.
L’autore del brano sfata le tesi di coloro che si oppongono all’utilizzo delle Laws, secondo cui i sistemi completamente autonomi andrebbero non solo a rimuovere il controllo umano sul “processo di uccisione” (creando dei problemi anche dal punto di vista giuridico), ma andrebbero anche a violare la dignità umana per via dell’arbitrarietà degli attacchi e della mancanza di accountability per gli stessi, oltre a limitare la libertà, ridurre la qualità di vita e creare sofferenza. Mannes rimarca come le Laws agiscano in modo autonomo, ma all’interno di un contesto tracciato da una mente umana, e che invece di rendersi responsabile delle conseguenze premendo un pulsante per confermare l’ingaggio, gli operatori umani lo faranno al momento dell’attivazione della macchina. Una prospettiva che non solo previene il rischio di vuoti giuridici, ma che non va neanche a degradare la dignità delle vittime, uccise da una scelta razionale anzichè “dalla stanchezza, dalla rabbia o dai pregiudizi dell’uomo che ha premuto il grilletto”.
Persino lo stesso Pentagono è rimasto vittima, secondo l’autore, degli imperativi morali, adottando una policy secondo cui i sistemi d’arma autonomi e semi-autonomi saranno progettati per consentire ai comandanti e agli operatori di esercitare livelli adeguati di giudizio umano sull’uso della forza. Che sul piano pratico si traduce però in una serie di rallentamenti burocratici allo sviluppo delle stesse, stressandone i rischi ma non le opportunità, come quella di tutelare la vita dei soldati statunitensi.
Mannes ricorda inoltre come armi definibili come “automatiche” esistano già da tempo, anche se non dispongono di un livello di sofisticazione elevato ottenibile grazie alla tecnologia di oggi. L’autore porta diversi esempi a sostegno della sua tesi, dalle loitering munitions alle mine anti-sommergibile Captor, arrivando alle semplici mine anti-uomo. Sottolineando come le armi più moderne abbiano anzi una capacità maggiore di discernere tra combattenti e non combattenti.
Anche i caratteri della guerra, e in particolare delle operazioni unmanned, sono cambiati. Fino a poco tempo fa i droni venivano utilizzati in contesti isolati, e i loro movimenti potevano essere seguiti passo per passo da analisti ed ufficiali responsabili. La guerra in Ucraina ha però cambiato tutto. Adesso i droni vengono impiegati in modo estensivo, con numerose azioni portate avanti simultaneamente, rendendo così impossibile un controllo accurato. Inoltre, il collegamento con l’operatore umano rappresenta una delle vulnerabilità che viene sfruttata dal nemico per neutralizzare questi apparecchi. L’impiego delle Laws permetterebbe non solo un uso contemporaneo di un numero di droni ancora più grande (secondo i preconcetti della teoria del drone swarming), ma anche di ridurne la suscettibilità alle interferenze nemiche.
Ma la guerra in Ucraina vuol dire anche altro. Di fronte alla realtà che i russi stanno violentando, uccidendo e rapendo i loro cittadini, gli Ucraini capiscono chiaramente che l’uso di armi autonome è necessario e morale. “Questo è il motivo fondamentale per cui l’impiego dell’autonomia è una scelta etica. Se non lo si fa in un conflitto convenzionale di grandi dimensioni, si avranno molte vittime, sia militari che civili, e potenzialmente la sconfitta nel conflitto” asserisce Mannes a conclusione della sua presa di posizione.