Per Vanberghen (Eui/Commissione Ue), un accordo bilaterale tra Stati Uniti e Cina per vietare l’uso dell’AI su aree sensibili suggerirebbe “il riconoscimento della necessità di un impiego responsabile ed etico in ambito militare in questo nostro mondo così complesso”
In quello che potrebbe essere uno degli sviluppi più significativi del loro faccia a faccia, i leader di Stati Uniti e Cina, Joe Biden e Xi Jinping, potrebbero uscire dall’incontro di mercoledì 15 novembre a San Francisco (nella cornice del vertice della Asia Pacific Economic Cooperation) con un accordo innovativo per vietare l’uso dell’Intelligenza artificiale negli armamenti robotizzati, come i droni, e nel controllo e dispiegamento di testate nucleari.
Stando ad alcune indiscrezioni di stampa, i pericoli di un uso non regolamentato dell’intelligenza artificiale (AI) saranno al centro delle discussioni facendo eco al recente summit di Bletchley Park (e relativa dichiarazione di responsabilità congiunta tra i vari partecipanti) e dimostrando che la tematica è al centro delle preoccupazioni sugli equilibri futuri tra le potenze globali.
Entrambe le nazioni hanno espresso le proprie interpretazioni della situazione, con gli Stati Uniti che hanno introdotto a inizio anno un quadro per l’uso responsabile dell’AI in campo militare, e la Cina che ha sottolineato la crescita di tali tecnologie nelle industrie strategiche come una priorità da gestire. A quanto pare, potrebbe essere annunciato un nuovo dialogo specifico “track 1.5”, ossia conversazioni che includono un mix di funzionari governativi — che partecipano anche a titolo non ufficiale — ed esperti non governativi, tutti seduti intorno allo stesso tavolo.
Entrambi i Paesi, a quanto pare condividono che sia fondamentale mettere un essere umano alla guida di tali sistemi. Automatizzare i processi di comando e controllo nucleari, per esempio, potrebbe essere possibile essendo disponibili ormai macchine in grado di farlo.
Le cyberweapons fanno già parte degli arsenali militari di Paesi come Cina, Israele, Iran, Corea del Sud, Stati Uniti e Russia, e l’assenza di standard comuni introduce rischi non definiti ne ha determinando uno stato di disordine internazionale, fa notare Cristina Vanberghen, professoressa all’European University Institute e senior expert della Commissione europea, specializzata nel rapporto tra le nuove tecnologie come l’AI e la politica estera.
E cosa aspettarsi da questo genere di accordo bilaterale? “Un tale accordo in questo settore – risponde – potrebbe servire come punto di partenza per stabilire un comportamento responsabile, mitigare i rischi e salvaguardarci da escalation involontarie”.
Vanberghen ricorda che la portata e l’impatto globale dell’AI nei contesti militari richiede un approccio multilaterale, che coinvolga un numero maggiore di Paesi e stabilisca un insieme di standard più completo e universalmente accettato. “Attualmente, le considerazioni etiche relative all’AI in guerra sono discusse nell’ambito della Convenzione delle Nazioni Unite su alcune armi convenzionali (Ccw), con particolare attenzione ai sistemi di armi autonome letali (Laws), ma è giunto il momento di trasformare questa che finora è stata una mera discussione accademica in una realtà”.
“Abbiamo bisogno di un approccio unificato per regolamentare l’uso dell’AI in applicazioni militari sensibili – continua l’esperta, che su certi temi consiglia l’Ue – e un accordo bilaterale tra Stati Uniti e Cina per vietare l’uso in queste aree sensibili suggerisce il riconoscimento della necessità di un impiego responsabile ed etico dell’AI in ambito militare in questo nostro mondo così complesso”.
Per la docente, “tali accordi, se realizzati, potrebbero costituire un precedente per altre nazioni e contribuire alla definizione di norme e regolamenti internazionali. Affrontare i rischi associati all’AI richiede una cooperazione globale e un impegno condiviso su linee guida etiche per garantire uno sviluppo e un impiego responsabile di queste tecnologie”.
Oggi, l’ambasciatrice Bonnie Jenkins, sottosegretario di Stato per il Controllo degli Armamenti e la Sicurezza Internazionale, è a New York per presentare alle Nazioni Unite la “Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy”. “A sostegno della priorità del presidente di sfruttare in modo responsabile i benefici dell’AI, mitigandone al contempo i rischi, la dichiarazione politica invita gli Stati a impegnarsi in un dialogo collaborativo e multilaterale con prospettive diverse per affrontare l’intera gamma di questioni legate agli usi militari dell’IA e dell’autonomia”, spiega il dipartimento di Stato in una nota per la stampa. Con Jenkins ci sarà anche la collega che si occupa di Controllo degli Armamenti, Verifica e Conformità Mallory Stewart che nei giorni scorsi ha ospitato a Washington il suo omologo cinese Sun Xiaobo.