Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

Il pubblico ministero? È l’algoritmo. L’esperimento cinese che fa paura

Come applicare l’intelligenza artificiale anche alla giustizia? Molti Paesi ci stanno lavorando ma a Shanghai è in fase di test un magistrato-software in grado di incriminare i cittadini. Per ora riconosce soltanto otto crimini ma i ricercatori intendono allargare il campo. Il rischio? Un futuro orwelliano (e neanche troppo lontano)

“I nostri avversari stanno investendo denaro e determinazione nel padroneggiare” diversi settori delle nuove tecnologie, compresa l’intelligenza artificiale. Questo è l’allarme che Richard Moore, direttore del Secret Intelligence Service (noto anche come MI6), cioè i servizi segreti britannici per l’estero, ha lanciato un mese fa in occasione del suo primo discorso pubblico. Quando parla di avversari, Moore si riferisce innanzitutto alla Cina: “adattarsi a un mondo influenzato” dalla sua “ascesa” rappresenta per gli 007 britannici “la singola priorità più grande”.

A ottobre Nicolas Chaillan, ex capo programmatore del Pentagono, aveva rilasciato un’intervista al Financial Times dichiarando, in protesta con la Difesa americana, che “tra 15 o 20 anni non avremo nessuna possibilità di competere con la Cina”. Parole che si inserivano nel quadro tracciato dalla Commissione di sicurezza nazionale sull’intelligenza artificiale, diretta da Eric Schmidt, ex amministratore delegato di Google. A marzo l’organo aveva già lanciato un monito: la Cina è sulla buona strada per superare gli Stati Uniti in questo settore così cruciale. Un sorpasso che per buona parte dipende dalla capacità di produrre semiconduttori, aveva aggiunto.

Molti sono i timori, almeno nelle società occidentali, davanti all’utilizzo dell’intelligenza artificiale o più in generale di tecnologie sempre più invasive. Un esempio: l’amministrazione statunitense guidata da Joe Biden sta pensando a una “carta dei diritti” per regolamentare l’intelligenza artificiale: ne “abbiamo bisogno” per “difenderci dalle potenti tecnologie che abbiamo creato”, hanno scritto Eric Lander e Alondra Nelson, direttore e vicedirettore dell’Office of science and technology policy della Casa Bianca, su Wired.

“Dobbiamo essere vigili per assicurare che questi strumenti non operino in modi che violino le leggi sui diritti civili”, ha detto recentemente Kristen Clarke, assistente procuratore generale degli Stati Uniti con delega ai diritti civili. Il suo è stato un discorso molto “americano”. Ma appare inevitabile, quando si parla degli Stati Uniti, e in particolare dell’amministrazione Biden, che le sue parole abbiamo anche risvolti internazionali, con l’ascesa tecnologia cinese che rischia di avere effetti anche sugli standard globali. 

Non è un caso, dunque, che i giornali occidentali abbiamo riservato discreta attenzione a quanto pubblicato sul South China Morning Post: la Procura del popolo di Shanghai Pudong, la più importante della Cina, sta sviluppando un sistema in cui la pubblica accusa è affidata all’intelligenza artificiale, tecnologia già adottata nella maggior parte delle carceri del Paese. Secondo i ricercatori, avrebbe oltre il 97% di precisione e sarebbe un ottimo modo per ridurre il carico di lavoro nelle Procure. La macchina è stata progettata utilizzando oltre 17.000 casi tra il 2015 e il 2020 e sarebbe in grado di individuare otto diversi reati, i più comuni a Shanghai, dalla guida pericolosa alle frodi con le carte di credito. Ma sono già previsti aggiornamenti con nuovi reati.

Lo strumento può valutare la forza delle prove, le condizioni per un arresto e quanto un sospetto può considerato pericoloso per la popolazione. Ma ci sono anche diversi dubbi, dalla domanda “chi paga in caso di errore?” – il procuratore generale, il programmatore o peggio ancora l’algoritmo? – al timore che, essendo addestrato su casi precedenti, il sistema sarebbe inaffidabile su quelli nuovi, molto frequenti in un clima sociale in continuo mutamento.

L’utilizzo dell’intelligenza artificiale nella giustizia è in crescita in tutto il mondo, non soltanto in Cina. Come ricorda il South China Morning Post, per esempio, alcune Procure in Germania ne fanno ricorso per analizzare le immagini. Ma tutti gli strumenti esistenti di intelligenza artificiale hanno un ruolo limitato, perché “non partecipano al processo decisionale di presentare accuse e [suggerire] sentenze”, ha spiegato al quotidiano il ricercatore a capo del progetto, Shi Yong, direttore del laboratorio di gestione dei big data e della conoscenza dell’Accademia cinese delle scienze, che sta sotto il potente Consiglio di Stato. Ossia la principale autorità amministrativa della Cina che nel 2017 ha rilasciato il Piano di sviluppo per una nuova generazione d’intelligenza artificiale, con un obiettivo chiaro: diventare entro il 2030 il principale centro d’innovazione nel campo dell’intelligenza artificiale.

Curtis S Chin, direttore esecutivo degli Stati Uniti alla Asian Development Bank sotto le amministrazioni di George W. Bush e Barack Obama, è stato tra i molti a commentare la notizia del South China Morning Post citando il film distopico Minority Report di Steven Spielberg.

“È evidente che l’intelligenza artificiale stia vincendo. Come le persone si adatteranno è un problema affascinante”, ha spiegato al Guardian il premio Nobel per l’economia Daniel Kahneman, autore con Olivier Sibony e Cass Sunstein del libro Noise: a flaw in human judgment. “Il sistema giudiziario”, ha spiegato, “è in un certo senso speciale, perché è una persona ‘saggia’ che decide. C’è molto rumore in medicina, ma in medicina c’è un criterio oggettivo di verità”.

Questo vale – o almeno si spera – nelle società occidentali. Probabilmente molto meno in quella cinese, con il leader Xi Jinping che sta indicando la rotta verso un futuro fatto di omologazioni ed etichette. Si pensi, per esempio, al sistema di credito sociale, una sorta di meccanismo orwelliano a punti per monitorare i cittadini.

Nel caso del procuratore “intelligente artificiale”, il problema non è rappresentato tanto da quel 97%, per quanto sia tutto da dimostrare – anche il 99,9% non sarebbe soddisfacente. Quanto piuttosto dal rischio che altro non sia che l’antipasto per il giudice “intelligente artificiale”, la consacrazione della distopia nei tribunali. 

×

Iscriviti alla newsletter