Intelligenza artificiale e sistemi predittivi. Ecco come la Cina si spinge in avanti

Intelligenza artificiale e sistemi predittivi. Ecco come la Cina si spinge in avanti
Nello Xinjang l’uso nelle policy della sicurezza. Un caso da non sottovalutare, anche per le implicazioni etiche, oltre che politiche

La sperimentazione dell’intelligenza artificiale predittiva nell’applicazione della legge nel mondo reale richiede supervisione pubblica e consapevolezza, spiega la Bloomberg. Il dibattito che sta ora cominciando – sebbene si sarebbe dovuto fare prima che la tecnologia fosse utilizzata per costruire accuse, non dopo – è enorme. Sostanzialmente, l’efficacia pragmatica e la giustizia usata applicando le capacità software di macchine elettroniche solleva questioni legali ed etiche sull’accuratezza, l’efficacia e i potenziali pregiudizi di tali strategie.

Per esempio: a febbraio Human Right Watch ha avvertito che le autorità cinesi stavano usando sistemi di sorveglianza di massa e i big data per compiere operazioni di polizia predittiva nella provincia dello Xinjang cinese. Semplificando molto, lo Xinjiang è un’area della Cina occidentale dove vive una minoranza etnica, gli uiguri, che ha culto religioso musulmano sunnita, dove hanno attecchito movimenti separatisti insurrezionali repressi dal governo, e dove hanno anche preso piede istanze estremiste (alcuni uiguri sono partiti per compiere il jihad califfale verso il Siraq, e la zona è soggetta a continue contaminazioni con il confinante jihadismo afghano, tanto che Pechino progetta di finanziare una base militare da cui il governo di Kabul può gestire l’area).

Secondo il rapporto di Hrw, dall’aprile del 2016 le autorità di pubblica sicurezza dello Xinjiang hanno inviato decine di migliaia di uiguri verso dei “centri di educazione politica” sulla base di analisi predittive condotte attraverso l’uso sempre più intrusivo della sorveglianza e l’incrocio dei dati raccolti. Ma senza che molte delle persone interdette avessero realmente commesso reati: praticamente era un algoritmo a decidere per la giustizia, sulla base della possibilità che prima o poi avrebbero potuto violare la legge e preso parte ad associazioni eversive (un po’ come se, per iperbole, una software house italiana venisse usata per governare la situazione di Scampia dando modo alla Polizia di mettere insieme i dati di intercettazioni con quelli di background dei singoli individui, e iniziasse così a fermare dozzine di giovani sotto i 20 anni perché prima o poi potrebbero diventare parte della malavita; si ripete, è un’iperbole).

La campagna del governo cinese è stata fortemente voluta dal presidente Xi Jinping, che per la regione ha come obiettivo il mantenimento della stabilità e delle condizioni pacifiche per evitare derive – a ogni costo, perché lo sviluppo cinese e la proiezione di Pechino nel mondo non può permettersi problematiche interne. Le autorità dichiarano che gli obiettivi sono gli estremisti e i potenziali estremisti, ma in pratica l’azione è molto più ampia e comprende tutti coloro che possono essere accusati di “slealtà politica”, spiegava la cinese Maya Wang di Hrw. E questo nello Xinjang significa praticamente qualunque uiguro che esprime – anche pacificamente – la propria identità religiosa o culturale (questione vietata dal governo).

In una “non comune somiglianza tra Oriente (più chiaramente: Cina, ndr) e Occidente”, come fa notare l’International Institute for Strategic Studies, è stato recentemente rivelato che gli algoritmi di intelligenza artificiale sono stati utilizzati anche dal Dipartimento di Polizia di New Orleans, negli Stati Uniti, per prevedere l’attività criminale.

Un paio di settimane fa, su The Verge, James Carville, noto stratega democratico (e advisor di Bill Clinton) ha svelato di aver lavorato affinché la Palantir Technologies, società statunitense, ricevesse un brevetto segreto per le tecnologie di “previsione del rischio di criminalità”. Un racconto che evoca scenari da “Minority Report”, il film di Steven Spielberg dove una sezione speciale della polizia, la Precrime (guidata dal capitano impersonato da Tom Cruise), utilizzava individui dotati di poteri extrasensoriali di precognizione (i Precog) per prevedere i crimini.

In questi giorni Gizmodo ha rivelato che anche il Pentagono utilizza i software di riconoscimento immagini di Google (il cui ex presidente Eric Schmidt è un consigliere del Pentagono dal 2016), in particolare il codice di apprendimento automatico TensorFlow (un programma di machine learning), per analizzare le riprese di droni. E si tratta di una parte del suo progetto di AI, il Progetto Maven (a cui partecipa anche Nvidia).

Justin Bronk, ricercatore del think tank inglese Royal United Services Institute, ha spiegato alla Bbc che la quantità di immagini, e dunque dati, raccolti dai velivoli senza piloti sempre in volo in giro per il mondo, ha superato le capacità di analisi umane, e dunque serve l’aiuto dell’elaborazione di una macchina. Per il momento Google ha fatto sapere che non vengono però elaborate dall’AI le immagini dei volti umani, quelle cioè che poi consentono ai comandi di dare la luce verde sugli assassini mirati dei leader jihadisti.

(In questi giorni il New York Times ha scritto che l’amministrazione Trump ha approvato otto di questi raid in Libia, contro i papaveri dell’organizzazione baghdadista dispersi sul territorio: se ne parla poco in via ufficiale, anche perché con ogni probabilità i droni che vanno a colpire sul territorio libico decollano da Sigonella, e l’Italia vuole tenere al minimo il coinvolgimento in azioni già controverse di per sé come l’attacco deliberato contro quello che viene individuato come un capo jihadista. Pure senza l’uso dell’AI).

(Foto: Tom Cruise in un’immagine del film Minority Report)

 

ultima modifica: 2018-03-11T10:10:22+00:00 da Emanuele Rossi