Skip to main content

Per le indagini, l’intelligenza non può essere solo quella artificiale 

Di Martino Jerian

L’intelligenza artificiale e le sue implicazioni etiche e di trasparenza sono al centro dell’agenda europea. L’urgenza di bilanciare sicurezza e privacy quando viene applicato il riconoscimento facciale è, però, solo la punta dell’iceberg. Il punto di Martino Jerian, amministratore delegato di Amped Software, azienda specializzata nello sviluppo di software per analisi forensi

Partiamo innanzitutto con una distinzione: l’analisi forense di immagini e filmati viene utilizzata per due tipi di contesti limitrofi, ma diversi: il contesto investigativo e quello giudiziario. Nel contesto investigativo, l’immagine (o filmato) viene utilizzata come spunto per proseguire con le indagini, mentre nel contesto giudiziario l’immagine diviene a tutti gli effetti una possibile fonte di prova. I confini sono, spesso, labili: ciò che inizialmente era stato utilizzato come indizio, potrebbe diventare in seguito la prova principe di un procedimento giudiziario. Questo è uno dei grandi temi da prendere in considerazione.

Per quanto riguarda l’utilizzo di algoritmi di intelligenza artificiale per il miglioramento e l’analisi di immagini e filmati in ambito forense, assistiamo a diversi studi che promettono risultati alla “CSI”, anche partendo da un’immagine completamente sgranata e con pochi pixel, e l’opinione – sempre più diffusa sulla stampa generalista – è che l’Ia riuscirebbe a “ricreare” un’immagine e a tradurla in alta risoluzione. Ricreare diviene quindi la parola chiave. Possiamo utilizzare un tipo di risultato che “ricrea” un’immagine e considerarlo una fonte di prova in ambito giudiziario? In un periodo storico in cui la giurisprudenza deve inseguire la tecnologia, sento di dover dare la mia opinione di tecnico.

In qualità di fondatore di Amped Software – realtà italiana che opera in 100 Paesi, sviluppando soluzioni per l’analisi forense di immagini e filmati, a supporto della sicurezza pubblica e nazionale – posso confermare che le forze dell’ordine si trovano quotidianamente ad analizzare immagini e filmati durante le indagini. Le fonti possono essere le più disparate: da sistemi di videosorveglianza a cellulari, ai social media.

Una delle richieste più comuni è quella del miglioramento forense di immagini: si cerca, per esempio, di schiarire una targa o un volto per effettuare un’identificazione, o migliorare la qualità complessiva di una scena per comprendere le dinamiche di un evento. In generale gli algoritmi di miglioramento (“image enhancement”) prendono un’immagine in ingresso e, tramite un processo predefinito, ne producono un’altra in uscita, auspicabilmente di migliore qualità.

Come vengono implementati questi algoritmi di miglioramento? Gli algoritmi di tipo “tradizionale” vedono l’implementazione di un modello matematico abbastanza chiaro (e relativamente semplice) che approssima un certo fenomeno, applicandolo all’immagine di ingresso, per poi generare l’immagine migliorata.

Gli algoritmi basati sull’intelligenza artificiale, invece, sono fondati sui dati. In termini estremamente semplificati, si allena la cosiddetta “rete neurale” su un gran numero di esempi. Per implementare un algoritmo di miglioramento del volto potremmo allenare la rete con coppie di immagini dello stesso volto, una di qualità scarsa e una di qualità elevata, in maniera tale da insegnare alla rete ad ottenere un’ipotetica immagine in alta qualità, partendo da una di bassa qualità.

Quali sono le problematiche che derivano da questo approccio?

Innanzitutto l’immagine migliorata viene in qualche modo contaminata da dati esterni al caso, tramite l’impatto del dataset utilizzato per l’allenamento. Questo causa un possibile “condizionamento” del risultato. Facciamo un esempio estremo, ma che chiarisce bene il problema alla base; supponiamo di dover migliorare un’immagine di bassa qualità con il volto di un uomo, ma utilizzando un algoritmo allenato con un dataset formato interamente da volti di donne: l’immagine che ne deriverà avrà molto probabilmente l’aspetto di una donna. Lo stesso dicasi per diverse etnie o altri aspetti visibili.

Altro aspetto è quello di comprendere il funzionamento dell’algoritmo. Il training dell’Ia genera solitamente algoritmi estremamente complessi, che non riusciamo ancora a tradurre: appaiono, quindi, difficilmente sostenibili in ambito giudiziario a causa del loro aspetto “black box”. Vi sono molti studi che si focalizzano sulla comprensione dell’Ia, ma siamo ancora lontani da una soluzione adeguata al nostro tipo di applicazione.

Per questi motivi, a mio avviso, immagini elaborate con tecniche di Ia non dovrebbero essere utilizzate come fonte di prova in ambito giudiziario. Esse non sono, infatti, un mero “miglioramento” dell’immagine in ingresso, ma nuove immagini ricreate sulla falsariga del modello con cui è stata addestrata l’Ia.

Possono tuttavia essere utili in un contesto investigativo, una volta considerate le opportune limitazioni e precauzioni. Le immagini ottenute con questo tipo di miglioramento vanno chiaramente identificate come tali, al fine di prevenire un uso successivo nel contesto probatorio. Inoltre, essendo non sempre affidabili, il personale va opportunamente educato su limiti e potenzialità, soprattutto per quanto riguarda i possibili precondizionamenti che potrebbero portare gli inquirenti su una pista sbagliata, a causa di un miglioramento che sembra notevole, ma che in realtà non corrisponde al vero.

Vi è un discorso ancora più vasto di quello del miglioramento, ed è l’analisi di immagini e filmati in maniera automatica. Gli algoritmi di analisi prendono un’immagine (o filmato) e danno in uscita un altro tipo di dato, tipicamente una classificazione o una decisione sul fatto che l’immagine rispetti (o meno) un determinato criterio. Di solito si tratta di analisi che potrebbero essere fatte manualmente da un operatore, e il computer semplicemente automatizza e velocizza il processo. Fanno parte di questa categoria il riconoscimento facciale, il riconoscimento di targhe, la valutazione dell’originalità di un’immagine, la rilevazione di immagini contenenti abusi di minori e molti altri tipi di analisi di eventi, ad esempio l’attraversamento di una strada contromano o l’abbandono di un bagaglio in un aeroporto.

Parlando in maniera generale, reputo che questo tipo di tecnologie possano essere utilizzate, anche se con estrema cautela, sia per applicazioni investigative che giudiziarie. Vanno tuttavia tenuti presenti in maniera rigorosa i seguenti punti.

Primo: l’Ia deve supportare l’analista, non sostituirlo. Pensando al riconoscimento facciale, il sistema automatico può aiutare a scremare i possibili sospettati in una vasta rosa di soggetti, ma è l’analista che deve valutare, e prendersi la responsabilità ultima, dell’identificazione. Un responso positivo di un’identificazione con IA può essere utilizzato come spunto investigativo, ma non può essere utilizzato come sola fonte di prova per motivare l’identificazione, senza la validazione dell’analista umano.

Secondo: il sistema deve fornire qualche tipo di indicazione sull’affidabilità in casi generali e/o nel caso specifico sotto analisi. Quanto possiamo fidarci di esso? In fase di test dà la risposta corretta nel 70% dei casi o nel 99%? In che situazioni è stato testato?

Terzo: è necessario, infine, adottare tutte le procedure necessarie ad eliminare il precondizionamento (bias) dell’operatore sulla base dei risultati forniti dall’Ia. L’operatore va infatti formato adeguatamente su potenzialità e limiti della tecnologia e vanno formalizzate procedure per limitare il bias. È molto probabile che se l’Ia dà un certo tipo di responso (potenzialmente errato), ciò influenzerà il mio giudizio a livello più o meno inconscio. Conoscere i vari bias cognitivi e le tecniche per limitarne l’impatto è un aspetto fondamentale.

Le considerazioni appena fatte, sono il frutto della nostra esperienza scientifica. Esulano, quindi, da responsabilità di carattere etico sull’utilizzo dell’Ia in ambito investigativo e giudiziario. Il compito dei tecnici è quello di far capire al pubblico e ai decision-maker le implicazioni delle tecnologie senza leggerezza e senza creare falsi allarmismi. Dobbiamo essere consci che la società, la giustizia e le tecnologie cambiano ed evolvono: qualsiasi scelta verrà fatta, dovrà essere continuamente adeguata al periodo storico.

×

Iscriviti alla newsletter