Skip to main content

È tempo di regolare l’IA. Il workshop del Casd a Kyoto

Di Fernando Giancotti e Rosanna Fanni

L’Intelligenza Artificiale rappresenta una tecnologia dirompente che rivoluzionerà il settore militare e il mondo civile. L’IA necessita quindi di un quadro normativo all’interno del quale operare che preveda un approccio olistico, sia a livello nazionale ed europeo che a livello internazionale. L’intervento di Fernando Giancotti, generale dell’Aeronautica Militare e già presidente del Centro alti studi della Difesa (Casd) e Rosanna Fanni

La bella città di Kyoto ha ospitato l’IGF 2023, un incontro annuale promosso dalle Nazioni Unite quale piattaforma multistakeholder per la discussione circa le politiche pubbliche relative a Internet e alle tecnologie digitali, quest’anno sul tema “The Internet We Want – Empowering All People”. Nella 18esima edizione del Forum hanno partecipato oltre 5000 persone e rappresentanti da più di 175 Paesi.

Nell’area tematica Artificial Intelligence (Ai) and Emerging Technologies, il panel “Ai and Edts in warfare: ethics, challenges, trends”, a cui hanno partecipato Pete Furlong del Tony Blair Institute; Fernando Giancotti del Centro alti studi per la Difesa (Casd) e Paula Gürtler del Centre for european policy studies (Ceps), moderato da Rosanna Fanni, ricercatrice Ceps, ha portato all’attenzione dell’IGF lo specifico tema delle Emerging Disruptive Technologies e in particolare l’intelligenza artificiale (IA) nelle operazioni militari, con le relative implicazioni etiche.

Dalla discussione è emerso come l’IA nei sistemi militari vada ben al di là delle Lethal authonomous weapons (Laws) e richieda un approccio complessivo, con linee guida etiche quanto possibile condivise sul piano internazionale, che consentano di impostare un uso di queste tecnologie funzionale e in linea con i valori fondamentali anche nell’ambito difesa. La posta in gioco è molto elevata, per il potenziale impatto che esse possono determinare.

La ricerca Casd

Una recente ricerca sponsorizzata dal Centro alti studi per la Difesa, evidenzia tra l’altro come la leadership della Difesa italiana senta la necessità di chiare linee guida che definiscano la questione della responsabilità degli operatori e di uno studio molto attento dell’equilibrio tra esigenze operative ed etiche, visti i diversi riferimenti etici dei probabili avversari. Anche l’industria ha bisogno di regole certe, a fondamento dello sviluppo e dell’efficace utilizzo dei sistemi IA militari. La ricerca evidenzia inoltre come, sebbene Regno Unito, Usa, Canada, Australia e anche la Nato abbiano definito dei principi in tal senso, l’Unione europea non ha sinora trattato la governance del settore.

L’AI Act in approvazione esclude esplicitamente la Difesa, nonostante alcune istituzioni europee, tra cui l’Eda, si stiano occupando di alcuni specifici aspetti. Il Reaim summit ha promosso un appello per l’uso responsabile dell’IA per scopi militari, ma i suoi sviluppi sono ancora in corso e da valutare.

Il ruolo dell’Onu

Il panel ha poi considerato le Nazioni Unite come altro attore fondamentale nel campo. L’iniziativa Onu per la regolamentazione dei Laws attraverso il Group of governmental experts non ha sortito risultati significativi. Considerata la ragion d’essere dell’Onu, prevenire e mitigare le guerre, essa dovrebbe contribuire all’elaborazione di un quadro etico complessivo verso un “Ius in bello” digitale, attraverso il processo multistakeholder che spesso utilizza.

Tra l’altro, come per lo sviluppo di una IA “civile” vi è il quadro di riferimento dei Diritti umani delle Nazioni Unite, così per l’uso militare dell’IA vi è il quadro derivante del Diritto umanitario internazionale, con rigorose procedure e regole, fino a prevedere istruzioni dettagliate al singolo militare che svolge un’operazione (Rules of engagement – Roe, risk-based). Le strutture a ciò dedicate, il personale formato, l’esperienza consolidata, arricchite della dimensione relativa all’IA, possono servire bene e a costi contenuti a tradurre i principi dell’uso responsabile dell’IA nei domini militari in criteri applicabili al livello strategico, operativo e tattico.

Un vuoto legale

Quello che manca ancora è proprio un quadro condiviso e cogente dei principi etici per l’IA militare, che armonizzi le visioni esistenti e informi le attività discendenti. Non facile da stabilire, ma indispensabile per ridurre i rischi già molto elevati per la sicurezza del nostro mondo.

Exit mobile version