Skip to main content

Anche l’Italia firma il documento della Casa Bianca sull’IA nella Difesa

Allarme IA: l’Ue è in ritardo su investimenti e sviluppo. Il rapporto

Fra le proposte dell’amministrazione Biden per il settore dell’Intelligenza Artificiale vi è anche una dichiarazione sull’utilizzo responsabile di questa “disruptive technology” nel settore della Difesa. Dichiarazione che ha ricevuto l’endorsement di 31 Paesi, tra cui l’Italia

Anche l’Italia si unisce agli Stati Uniti per sostenere lo sforzo comune nei confronti dell’Intelligenza Artificiale. Roma risulta infatti tra i 31 Paesi che hanno deciso di aderire alla Dichiarazione della Casa Bianca che si prefigge di regolare secondo principi etici lo sviluppo dell’IA all’interno della dimensione militare.

La Dichiarazione politica sul responsabile utilizzo militare dell’Intelligenza Artificiale è stata lanciata dal governo degli Stati Uniti nel febbraio di quest’anno, all’interno del framework del “Responsible AI in the Military Domain Summit” tenutosi all’Aia. La Dichiarazione mira a costruire un consenso internazionale su un comportamento responsabile e a guidare lo sviluppo, il dispiegamento e l’uso dell’IA in ambito bellico da parte di quegli Stati intenzionati a dotarsi di simili capacità. Per fare ciò la Dichiarazione propone 12 best practices da seguire nel processo di sviluppo dell’Intelligenza Artificiale applicata alla dimensione militare, sottolineando l’importanza della responsabilità umana all’interno del death killing process: questi punti riguardano la sicurezza delle armi nucleari, la progettazione responsabile dei sistemi, la formazione del personale e le metodologie di verifica delle capacità di IA militare. Il documento sottolinea anche la necessità di ridurre al minimo le distorsioni e gli incidenti non intenzionali e l’importanza dei test per garantire la sicurezza e l’efficacia delle capacità di IA militari.

Gli Stati Uniti si impegnano a mantenere un dialogo regolare tra gli Stati sostenitori di quest’iniziativa per promuovere ulteriormente il sostegno internazionale e l’attuazione di queste pratiche responsabili. La fase successiva di questo programma è prevista per il primo trimestre del 2024.

“Fondamentalmente, siamo convinti che una tecnologia con un impatto globale meriti un’azione globale. Pertanto, per garantire ordine e stabilità nel mezzo del cambiamento tecnologico globale, sono fermamente convinto che dobbiamo essere guidati da un insieme comune di intese tra le nazioni. […] Gli Stati Uniti continueranno a lavorare con i nostri alleati e partner per applicare le regole e le norme internazionali esistenti all’IA e per lavorare alla creazione di nuove regole e norme” ha dichiarato al riguardo la vicepresidente statunitense Kamala Harris, che all’interno della sua trasferta a Londra per partecipare al Global Summit on AI Safety tenutosi a Bletchley Park ha ufficialmente presentato quest’iniziativa, assieme ad alcune altre comprese dentro all’Ordine Esecutivo firmato il 30 ottobre scorso dal presidente Joe Biden.

Diverse le attività previste. Come l’istituzione dell’United States AI Safety Institute all’interno del National Institute of Standards and Technology, che si occuperà di creare linee guida, strumenti, benchmark e best practices per la valutazione e la mitigazione delle capacità pericolose e condurre valutazioni per identificare e mitigare il rischio dell’IA. O la prima bozza della policy guidance sull’uso dell’IA da parte del governo americano, dove vengono delineate le misure concrete per far progredire l’innovazione responsabile dell’IA nel governo, aumentare la trasparenza e la responsabilità, proteggere i lavoratori federali e gestire i rischi derivanti dagli usi sensibili dell’IA.

Ma anche la New Funders Initiative to Advance AI in the Public Interest, finalizzata a delineare una visione per le donazioni filantropiche volte a far progredire l’IA che è progettata e utilizzata nell’interesse dei lavoratori, dei consumatori, delle comunità e delle persone storicamente emarginate negli Stati Uniti e in tutto il mondo. Dieci importanti fondazioni (tra cui Fondazione Ford, Fondazione Mozilal e Open Society) hanno impegnato collettivamente più di 200 milioni di dollari in finanziamenti per iniziative volte a garantire che l’IA protegga la democrazia e i diritti, guidare l’innovazione dell’IA nell’interesse pubblico, consentire ai lavoratori di prosperare in mezzo ai cambiamenti guidati dall’IA, migliorare la trasparenza e la responsabilità dell’IA e sostenere le regole e le norme internazionali sull’IA.

E ancora, piani per rilevare e bloccare le chiamate telefoniche fraudolente guidate dall’intelligenza artificiale; norme internazionali sull’autenticazione dei contenuti; impegno a incorporare pratiche responsabili e rispettose dei diritti nello sviluppo, nell’approvvigionamento e nell’uso dell’intelligenza artificiale da parte dei governi: un pacchetto omnicomprensivo che contribuirà al processo costituzione di un efficace sistema di governance internazionale sullo sviluppo dell’Intelligenza Artificiale. Processo in cui anche l’Italia giocherà la sua parte.



×

Iscriviti alla newsletter