Skip to main content

Una governance per l’IA militare. Anche l’Italia partecipi al dibattito

Di Fernando Giancotti

Il tema della governance etica dell’IA è al centro del dibattito politico mondiale. A fronte di un utilizzo crescente sui campi di battaglia e dello sviluppo di numerosissimi sistemi militari assistiti da IA, la tecnologia mostra, insieme a grandi potenzialità, forti limiti circa la sua affidabilità. In questo contesto si inerisce l’invito Usa rivolto a Cina e Russia a impegnarsi affinché le decisioni sull’utilizzo delle armi nucleari siano riservate soltanto agli umani. L’intervento del generale Fernando Giancotti, già presidente del Casd

Un alto funzionario del Dipartimento di Stato americano ha invitato negli scorsi giorni Cina e Russia a impegnarsi affinché le decisioni sull’utilizzo delle armi nucleari siano riservate soltanto agli umani e mai all’intelligenza artificiale (IA), come già concordato da Usa, Francia e Gran Bretagna, riporta Reuter. Solo pochi giorni prima, un analogo funzionario cinese aveva invitato le potenze nucleari a negoziare un trattato sul no-first use dell’armamento nucleare. Il recente colloquio Biden-Xi sembra avviare un dialogo, tra i cui temi centrali vi sono la sicurezza e l’IA.

Nello scenario di guerre e instabilità diffuse in cui ci troviamo, dove tutto sembra spingere alla divisione e al conflitto, è specialmente interessante osservare segnali orientati nel senso opposto. Il cauto riavvicinamento tra Cina e Usa certamente risponde anche alla percezione dei rischi militari in gioco e all’intendimento di mitigarli. Per ciò che riguarda l’intelligenza artificiale per la difesa, vi è la necessità di governare una frontiera tecnologica ancora senza legge, le cui implicazioni non sono ancora chiare, ma che ha il potenziale di rivoluzionare gli affari militari, con rischio di scivolare un gioco a somma negativa dove tutti perdono.

Infatti, da un lato il tema della governance etica dell’IA è al centro del dibattito politico mondiale e molto si è prodotto ai fini di una generale regolazione dei rischi dell’intelligenza artificiale, con iniziative varie, tra cui il Processo di Hiroshima del G7, l’executive order di Biden, l’iniziativa cinese sulla governance globale, i quadri di riferimento dell’Ocse e dell’Unesco, e soprattutto con l’AI Act dell’Unione europea. Dall’altro, manca del tutto un quadro di riferimento internazionale in merito all’utilizzo dell’IA a fini militari, dominio ad altissimo rischio, dove i danni potenziali sono ben maggiori di quelli pur importanti legati alla privacy, ai pregiudizi e alla tutela dei diritti degli altri ambiti di applicazione.

Infatti, a fronte di un utilizzo crescente sui campi di battaglia e dello sviluppo di numerosissimi sistemi militari assistiti da IA, la tecnologia mostra, insieme a grandi potenzialità e alcuni ottimi risultati, forti limiti circa la sua affidabilità. La possibilità di “allucinazioni”, imprevedibili errori non sempre facili da rilevare, l’opacità dei processi decisionali, la necessità di dati per l’istruzione dei sistemi, spesso indisponibili nella quantità e qualità adeguate, rendono rischioso l’utilizzo dei sistemi IA in un contesto già di per sé ad alto rischio. Per ciò che riguarda in particolare l’utilizzo delle armi nucleari, vi sono studi sulla dinamica escalatoria innescata da rapidissime e non trasparenti decisioni dell’IA, inclusi recenti esperimenti di ricercatori statunitensi con quattro diversi modelli di intelligenza artificiale nell’ambito di una simulazione di scenari di crisi internazionale. Tutti e quattro i modelli IA tendevano a far spiralizzare la situazione, il più delle volte in maniera imprevedibile e repentina. In alcuni casi, i modelli virtuali hanno impiegato armi nucleari, con il razionale della ricerca della pace nel mondo.

Diversi Paesi avanzati hanno sviluppato strategie nazionali per l’uso etico e responsabile dell’IA nella Difesa, come gli Usa, il Regno Unito, la Francia, il Canada, l’Australia, la Corea del Sud, il Brasile e altri. La Nato, il Gruppo di esperti governativi (Gge) delle Nazioni Unite, il Vertice Reaim (Responsible use of AI in the military) che ha affrontato approfonditamente e ad alto livello la tematica all’Aja nel 2023, in cui gli Usa hanno proposto la Political declaration on responsible military AI, condivisa da oltre cinquanta Paesi, l’iniziativa Thrustworthy AI for Defence dell’Eda, sono passi importanti verso una governance di questo settore.

Certamente un impegno concorde dei cinque membri del Consiglio di sicurezza dell’Onu sul tema dell’utilizzo dell’IA per gli armamenti nucleari, oltre a mitigare un grande rischio strategico, avrebbe un forte valore di riferimento per promuovere una regolazione globale condivisa di questa frontiera. La posizione russa appare difficile da conciliare, ma un ipotetico avvicinamento cinese sarebbe significativo anche in tal senso.

Perché anche l’Italia possa contribuire a questo sforzo, portando la sua specifica cultura che assegna alla pace un grande valore, è necessario che alla necessaria, rinnovata attenzione ai temi della difesa e della sicurezza, vi sia investimento sulla comprensione di quanto accade nel settore IA nella difesa e sullo sviluppo di strategie che abilitino il poter dire la nostra e fare la nostra parte.



×

Iscriviti alla newsletter