Skip to main content

Technopolicy – Sensi, l’altra faccia del riconoscimento facciale

In parlamento Filippo Sensi è riuscito a far approvare una moratoria sull’utilizzo delle tecnologie di riconoscimento facciale nei sistemi di videosorveglianza nei luoghi pubblici. Ma il tema non si ferma qui: stiamo consegnando i nostri dati biometrici ad aziende di cui non sappiamo nulla e che possono usarli per scopi illegali (come nel caso Clearview AI). La regolamentazione è ancora nelle fasi iniziali

Technopolicy, il podcast di Formiche.net 

All’incrocio tra tech e politica, tra innovazione e relazioni internazionali, tra digitale e regolazione, abbiamo deciso di creare un nuovo “contenitore”, Technopolicy. 

Ogni settimana incontrerò esperti, accademici, manager, giuristi, per discutere di un tema specifico e attuale. Ciascuno di questi incontri diventerà un video su Business+, la nuova piattaforma tv on demand; un podcast su Spreaker, Spotify, Apple e gli altri canali audio; un articolo su Formiche.net. Perché ognuno ha il suo mezzo preferito per informarsi e a noi interessa la sostanza e non la forma. Gli episodi sono stati scritti e prodotti insieme a Eleonora Russo.

________________

Clicca qui per vedere l’episodio integrale su Business+, la tv on demand

 

Clicca qui per ascoltare il podcast su Spotify

Clicca qui per ascoltare il podcast su Apple podcast

Clicca qui per ascoltare il podcast su Spreaker

________________

 

Technopolicy – L’altra faccia del riconoscimento facciale

La tecnica biometrica ci permette di identificare una persona a partire dalle sue caratteristiche fisiche, come le impronte digitali, la voce, l’iride o il viso. Il riconoscimento facciale è una delle sue principali applicazioni, oggi usato in moltissimi ambiti, ad esempio per sbloccare in modo sicuro i nostri smartphone. Ma questa tecnologia ha anche un lato oscuro: errori, discriminazioni, sorveglianza di massa e violazioni della privacy. Insomma, quando usiamo il riconoscimento facciale siamo davvero sicuri che sia sicuro? Lo abbiamo chiesto a Filippo Sensi, giornalista, fondatore del blog Nomfup, già portavoce dei premier Renzi e Gentiloni e deputato Pd nella precedente legislatura (l’intervista è stata registrata prima delle elezioni del 25 settembre 2022).

Ci racconti il tuo percorso professionale?

Sono un giornalista, ho sempre lavorato alla frontiera tra il giornalismo e la comunicazione politica. In questa veste, ho lavorato per l’amministrazione di Roma, per partiti politici e due volte come portavoce a Palazzo Chigi del Presidente del Consiglio. Da parlamentare del Partito Democratico ho sviluppato un’attenzione particolare per i temi della tecnologia, in particolare quelli relativi alle libertà e alle opportunità che offre ma anche ai rischi correlati. 

Questo è esattamente il tema del nostro podcast. La tecnica del riconoscimento facciale è ormai sempre più utilizzata non solo per scopi di sicurezza ma anche in molti altri ambiti della nostra vita quotidiana, principalmente a scopo commerciale. Questo impiego, però, non è esente da rischi. Di quali rischi parliamo esattamente? 

Ogni smartphone oggi utilizza il riconoscimento facciale per applicazioni e utilizzi vari. Non voglio fare il luddista ma penso che con troppa facilità abbiamo lasciato correre la disponibilità dei nostri dati personali, soprattutto quelli relativi all’identità e ai dati biometrici. Da qualche anno, non solo in Italia ma anche negli Stati Uniti e in Gran Bretagna,  si è sviluppata una certa sensibilità e una maggiore consapevolezza sugli utilizzi di alcune tecnologie, tra cui quelle biometriche. Tecniche che oggi sono potentissime e permettono l’incrocio di dati personali e database i più disparati. Penso che questa pervasività possa rappresentare un grande fattore di rischio in alcuni, soprattutto nell’ambito della nostra privacy. Anche perché abbiamo avuto per anni una visione della privacy come una cosa “all’inglese”, da siepe di casa. Ma quando parliamo delle frontiere della nostra identità digitale e quindi di libertà e di diritti credo che ci siano alcune domande e alcune risposte che si devono esigere. 

In termini di policy c’è stato per molto tempo un vuoto normativo sul tema. Poi lo scorso anno è stata introdotta una misura che è un passo avanti a livello legislativo per la regolamentazione del riconoscimento facciale e nel decreto Capienze dell’ottobre 2021, poi convertito in legge, è stata fatta confluire una prima disciplina del riconoscimento facciale. Qual è stato l’iter che ha portato a questo intervento? 

Da molto si parla di riconoscimento facciale e di società della sorveglianza biometrica, un tema attuale tanto negli Stati Uniti quanto in Europa. Negli ultimi anni si era sviluppata una tendenza nelle città, su impulso di alcune amministrazioni comunali, ad utilizzare delle telecamere intelligenti per assicurare la sicurezza e come modalità deterrente nei confronti della criminalità. Questa attitudine è stata poi incentivata dai vari ministri degli Interni che si sono succeduti. In questi casi la questione, e il problema che si pone, è di natura tecnologica: installando telecamere in una piazza o accanto a una stazione c’è la possibilità di utilizzare una tecnologia raffinata per combinare e “matchare” i dati di chi passa in quel momento con i suoi stessi dati raccolti in altre banche dati (si pensi a quelle dei social network).

Ci troviamo di fronte ad una sorta di pesca a strascico. Perciò siamo intervenuti in Parlamento chiedendo la tutela della forza di legge per vietare la possibilità di utilizzare il riconoscimento facciale in questa tipologia di telecamere. E devo dire che in linea generale abbiamo avuto ragione. Si trattava, però, di un singolo tassello mentre rimaneva pendente la questione di uniformare i comportamenti delle varie autorità locali … una fatica di Sisifo. Ho quindi pensato che sarebbe stato opportuno chiedere una moratoria sull’utilizzo delle tecnologie di riconoscimento facciale nei sistemi di videosorveglianza nei luoghi pubblici. 

Credevo che sarebbe stato impossibile e per farlo abbiamo scelto un veicolo legislativo che si occupava di altre materie, appunto il decreto Capienze. Abbiamo quindi “nascosto” la disciplina di queste fattispecie dentro il provvedimento e abbiamo chiesto una moratoria, cioè una sospensione. Dato che il Parlamento europeo stava deliberando su temi relativi all’ intelligenza artificiale e al riconoscimento facciale, la ratio era occupare una una finestra di dibattito istituzionale. Cioè vietare il riconoscimento facciale per un determinato periodo di tempo fintanto che il Parlamento europeo non avesse legiferato. A quel punto, si trattava “solo” di recepire la normativa adattandola al nostro sistema.

Questa modalità ha permesso di osteggiare i comportamenti di cui parlavo prima e le difformità nei vari comuni per cui chiunque poteva maneggiare dati biometrici delle persone senza alcun limite o vincolo normativo. Fino a dicembre 2023 ci sarà questa sospensione che siamo riusciti inopinatamente ad ottenere. Devo dire che c’è stato anche un grande interesse a livello europeo e di recente abbiamo incontrato una delegazione di Verdi europei molto interessata all’iter che ho raccontato e alla possibilità di riprodurlo. A Strasburgo attualmente si sta ragionando sulle prospettive e sugli scenari del riconoscimento facciale nei luoghi pubblici. Si tratta di una battaglia epocale in cui si procede per passi e non per rivoluzioni. 

A proposito, nel 2021 il Parlamento europeo ha votato una risoluzione che chiede alla Commissione di vietare il riconoscimento facciale come strumento di prevenzione generalizzato in tutta l’Unione. L’idea è che il riconoscimento facciale possa essere utilizzato unicamente come strumento per riconoscere soggetti già “sospettati di un crimine” e non in ipotesi generalizzate con modalità di riconoscimento automatico e indiscriminato negli spazi pubblici. Verso che modello di regolazione sta andando l’Unione europea in materia? 

Io sono ottimista e credo che l’Europa si sia ricavata un suo ruolo di arbitro che, soprattutto grazie al Gdpr, ci rende di fatto un modello dal punto di vista della tutela normativa dei diritti individuali, tra cui quelli connessi alle nuove tecnologie. Lo storico trade-off tra sicurezza e libertà continua ad interrogarci anche rispetto ai vari modelli esistenti. In particolare, quello americano molto orientato al mercato e alla tutela dell’individuo prima nel suo status commerciale che di cittadino e il modello cinese iper securitario e autoritario. A mio avviso si può trovare un bilanciamento e un punto di equilibrio. Il tema, poi, è abilitare le condizioni e i fattori per rendere l’Europa in grado di competere nel settore dell’intelligenza artificiale non solo come regolatore ma anche come player tra questi due giganti.

La comunicazione della Commissione europea che risponde alle richieste del Parlamento ha di fatto lasciato un po’ larghe le maglie e adesso il legislatore europeo dovrà fare un atto che recepisce il lavoro dell’esecutivo ma in chiave più stringente in termini di utilizzo di alcune tecnologie, come il riconoscimento facciale e in generale anche le tecnologie di social scoring. Queste, in particolare, sono legate all’idea per cui i comportamenti individuali sono correlati ad un fattore premiale per quel che riguarda ai diritti, cosa che per la sensibilità europea e occidentale è del tutto inaccettabile. Credo che il 2023 sarà l’anno decisivo per avere un ordinamento giuridico europeo – quindi vincolante- per i paesi dell’Unione che sarà capace di fissare alcuni paletti una volta per tutte. 

Anche in Occidente, però, ci sono state ingerenze della privacy legate all’utilizzo del riconoscimento facciale. E’ il caso della società americana Clearview AI Inc. che è stata sanzionata per aver attivato un vero e proprio monitoraggio biometrico a fini commerciali estraendo dati di miliardi di cittadini (anche europei e italiani) con la tecnica del “web scraping” da social network, da video online e da siti pubblicamente accessibili. Qual è il giusto approccio nei confronti di soggetti privati come questi? 

E’ una questione molto delicata. Anche perché spesso comportamenti del genere arrivano ad essere indagati o sanzionati solo grazie a operazioni di whistleblowing. E infatti quello di Clearview AI è diventato un caso internazionale. Dopo i rovesci delle sanzioni e delle polemiche che ha suscitato, l’azienda ha cercato di fare una sorta di operazione di maquillage. Ad esempio, lo ha fatto in Ucraina dando la disponibilità delle sue tecnologie di riconoscimento facciale alle autorità locali per evitare il traffico dei bambini alla frontiera o per riconoscere i militari russi operativi nel Paese. Bisogna chiedersi innanzitutto cosa vende un’azienda come Clearview e cioè la pretesa di una maggiore sicurezza. 

Purtroppo i bias e gli errori dell’algoritmo che sono dietro al riconoscimento biometrico fanno sì che, come avvenuto in particolare negli Stati Uniti, ci siano episodi di discriminazione di genere e di etnia che rendono poco efficace questo tipo di tecnologia. Errori del genere impongono l’adozione di un atteggiamento punitivo nei confronti di questioni simili.  Personalmente sono piuttosto rigido e giustamente la moratoria di cui parlavo è stata giudicata dalle organizzazioni che si occupano di tutela della privacy troppo blanda rispetto ad un divieto. Io penso che mettere un motore di una Ferrari dentro uno chassis di un’utilitaria non funzioni.

Per cui un certo tipo di tecnologia che consente un capacità di penetrazione così minuta nella vita delle persone va necessariamente inquadrata e regolamentata prima che avvengano casi di discriminazione o ingerenza. Proprio per non farci cogliere impreparati. Il New York Times ha fatto un esperimento di riconoscimento facciale utilizzando l’app di un’azienda e chiedendo ai colleghi di testarne gli utilizzi scansionando i propri volti. Come racconta l’articolo, il risultato è impressionante perché spuntano fuori foto in cui i vari individui erano appena riconoscibili sullo sfondo di altre foto immagazzinate in chissà quali database. In ragione di questa pervasività le stesse aziende e le organizzazioni cominciano a fare molti passi indietro rispetto all’utilizzo di queste tecnologie. Io, su questo, faccio la mia parte in qualità di legislatore. 

Aggiungo una ulteriore questione che è emblematica di questo concetto. Il ministero degli Interni ha un sistema per il riconoscimento delle persone, per lo più utilizzato in ambito migratorio, chiamato SARI (Sistema Automatico di Riconoscimento Immagini) che si basa su un enorme schedario. SARI funziona attraverso due modalità: una prima “enterprise” che prevede l’acquisizione di dati e il processo di ricerca e la seconda “real time” che consente in tempo reale di effettuare il processo di comparazione con le banche dati. Sulla modalità enterprise siamo arrivati troppo tardi e viene infatti utilizzata correntemente. Il sistema real time, invece,  è stato di fatto congelato e non viene più utilizzato per questo tipo di valutazioni. Anche perché in una materia così delicata come quella della tutela dell’identità digitale c’è bisogno di diffondere conoscenze e consapevolezze. E nel caso del SARI il Parlamento si è mosso affinché l’autorità garante si esprimesse sulla modalità di acquisizione che, infatti, è stata giudicata troppo invasiva. 

Ci consigli qualcuno da leggere o seguire?

Sicuramente consiglio come personaggio da leggere Shoshana Zuboff che già da un po’ ha acceso i riflettori sulla sorveglianza di massa. Ci sono poi le associazioni, penso prima di tutto al Privacy Network e all’Hermes Center che fanno un lavoro straordinario su questi temi. Consiglio poi il libro “I figli dell’algoritmo” di una studiosa che si chiama Veronica Barassi che è molto interessante perché descrive come l’algoritmo segua i nostri passi prima ancora della nascita. L’autrice racconta di quando, in attesa di un figlio e prima ancora di averlo detto al marito, Google sapeva già che fosse incinta e già aveva collezionato dei dati in merito. 

×

Iscriviti alla newsletter