Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

Washington potrebbe sanzionare gli ufficiali cinesi dietro al programma AI in Xinjiang

robot killer, Mise

La vice segretario di Stato americana, Laura Stone, che coordina l’ufficio East Asian and Pacific Affairs del dipartimento, ha dichiarato che gli Stati Uniti potrebbero sanzionare alcuni funzionari di sicurezza cinesi per il mancato rispetto dei diritti umani. Il riferimento diretto era a coloro che dirigono la campagna in Xinjiang, dove Pechino ha avviato una maxi operazione di polizia e intelligence che dovrebbe servire a prevenire insorgenze terroristiche.

Lo Xinjiang è una regione problematica, dove vive il gruppo etnico uiguro, turcofoni musulmani, indipendentisti. Hanno compiuto atti violenti perché la predicazione radicale ha attecchito all’interno della comunità sposando la causa indipendentista, e negli anni passati in diversi sono partiti per la hegira jihadista califfale verso Siria o Iraq.

Il governo cinese (già protagonista nel 2009 di episodi repressivi) vuole contenere gli uiguri, e per farlo ha lanciato un’operazione mista tra prevenzione, dissuasione e repressione. La campagna – studiata per conto del presidente Xi Jinping da Chen Quanguo, che prima si è occupato delle policy di sicurezza per il Tibet – è stata già molto criticata perché utilizza anche metodi predittivi guidati dall’intelligenza artificiale: nella regione vige un quasi completo controllo dell’ambiente digitale, e i funzionari delle forze di sicurezza cinesi possono utilizzare dati intercettati su un sospettato, metterli a sistema con il background, e se l’analisi dell’algoritmo lo ritiene consono porlo sotto stato di fermo senza evidenti colpevolezze.

Da qui, migliaia di cittadini dello Xijiang sono stati portati in campi di rieducazione politica, dove l’indottrinamento governativo (con metodi psicologici e fisici) dovrebbe riallineare il sospettato su una traiettoria di vita meno problematica – va da sé che anche lì le condizioni del rispetto dei diritti umani sono altrettanto minime. E a monte c’è una questione enorme: molto spesso quelle persone sono portate su questi centri di detenzione sulla base di sospetti elaborati da un computer.

Gli americani – che pure hanno usato limitatamente tecniche simili, per esempio è il caso della polizia di New Orleans – avanzano come scusa formale il fatto che almeno quattro degli uiguri detenuti godono di doppio passaporto, e due di loro sono frequentatori assidui degli Stati Uniti. A Washington s’è mosso già il Congresso: è stato Marco Rubio, leader repubblicano, a firmare una richiesta formale inviata all’ambasciatore americano a Pechino, Terry Branstad, in cui si richiedeva un sopralluogo urgente nello Xinjiang finalizzato a raccogliere informazioni sulla situazione e sui responsabili della campagna poliziesca.

A Washington, ha spiegato Stone il giorno prima della presentazione del report del dipartimento di Stato sulla situazione del rispetto dei diritti umani nel mondo (i giornalisti uiguri di Radio Free Asia erano stati invitati al briefing quotidiano di Foggy Bottom) si pensa di utilizzare il Global Magnitsky Act, con il quale si potrebbero sanzionare i dirigenti delle forze di sicurezza cinesi che stanno dietro all’operazione. Da Pechino, il ministero degli Esteri ha già avvertito che si tratterebbe di “interferenze basate su accuse infondate”.

Sarebbe una delle prime volte che una nazione ne punisce un’altra per (in una lettura estrema) un uso improprio dell’Artificial Intelligence – l’AI e le sue enormi potenzialità applicate sono uno dei grandi problemi etici del futuro, oltre che un territorio cruciale sullo scontro commerciale-strategico tra Stati Uniti e Cina (lo scorso anno, per esempio, è stato il presidente russo Vladimir Putin a dire che chiunque raggiungerà un totale controllo dei meccanismi AI sarà sul tetto del mondo).

In questi giorni, la Rand Corporation, think tank di Santa Monica che si occupa spesso di anticipare il campo delle policy di sicurezza, ha pubblicato un report abbastanza provocatorio che arriva a un domanda spiazzante: in che modo l’AI potrebbe influenzare il rischio di una guerra nucleare?

Al momento, non ci sono sottomarini abilitati a decidere quando è il caso di lanciare un missile balistico nucleare e “nessuno è intenzionato a costruire una Skynet”, scrivono gli autori del report, Edward Geist e Andrew Lohn, con riferimento al sistema di comando e controllo nucleare affidato a un’intelligenza artificiale del film “Terminator” – nel film il computer conclude che deve uccidere l’umanità al fine di garantire la propria sopravvivenza.

Però, secondo gli autori, estremizzando il rischio, nell’ambito della “paranoica” prassi della deterrenza nucleare, i sistemi di rivelazione di informazioni affidate a droni autonomi, guidati da intelligenza artificiale (per esempio: il programma di analisi di immagini del Pentagono “Mavren Project”) potrebbero essere un elemento delicato.

“Se stai prendendo decisioni come essere umano sulla base di dati raccolti, aggregati e analizzati da una macchina, allora la macchina potrebbe influenzare la decisione in modi di cui potresti non essere a conoscenza”, scrive la Rand. A febbraio la Cina ha fatto sapere che sta sviluppando un algoritmo di Artificial Intelligence da integrare nei sistemi di comando dei sottomarini nucleari in modo da potenziare le capacità di pensiero decisionale dei propri ufficiali.

×

Iscriviti alla newsletter