La controversa azienda americana prova a rifarsi l’immagine concedendo l’uso del suo immenso database di volti a Kiev (e non a Mosca). È utile per identificare infiltrati russi e riconoscere i morti, ma potrebbe bastare un errore del sistema per scatenare conseguenze tremende. Ecco come si espande il teatro di guerra digitale
Criptovalute, messaggistica decentralizzata e internet via satellite per uso civile, ma anche infowar via TikTok, open source intelligence (Osint) e ora, riconoscimento facciale a scopi bellici. Con la guerra in Ucraina stiamo assistendo all’espansione del fronte digitale, l’inedita applicazione su larga scala di diverse nuove tecnologie, e iniziando a capirne le implicazioni in un teatro di guerra aperta.
Lo scorso fine settimana il ministero della difesa di Kiev ha ufficialmente iniziato a utilizzare il riconoscimento facciale di Clearview AI, un’azienda statunitense che ha messo il proprio software a disposizione del governo ucraino, gratuitamente, per scoprire gli aggressori russi, combattere la disinformazione e identificare i morti. A dichiararlo è la stessa compagnia, che ha aggiunto di non aver offerto la propria tecnologia alla Russia.
Clearview AI è essenzialmente un database di volti con annesso motore di ricerca “alimentato” da un’intelligenza artificiale. Non è l’unico servizio del genere (esistono anche alternative open source e gratuite) ma è tra i più potenti e sofisticati al mondo. Anche perché può contare su un database di 10 miliardi di immagini, ottenute tramite raccolta di dati in massa (scraping) nella parte “in chiaro” di internet. Il fondatore Hoan Ton-That ha detto che il software dispone di oltre 2 miliardi di immagini prese da VKontakte, il social network più diffuso in Russia.
Quel database può aiutare Kiev a identificare i morti più facilmente rispetto all’abbinamento di impronte digitali. Funziona anche se ci sono danni al viso, ha scritto Ton-That in una lettera vista da Reuters. Il fondatore ha spiegato anche come la sua creazione possa essere utilizzata per riunire i rifugiati separati dalle loro famiglie, identificare gli agenti russi infiltrati (per esempio, con controlli automatizzati ai posti di blocco) e aiutare il governo a sfatare le fake sui social. Ma non si sa che uso intenda farne l’Ucraina.
Tuttavia, com’è normale che sia, anche un sistema sofisticato come Clearview può sbagliare. Specie se lavora con foto sfocate o di bassa qualità, come spesso accade in scenari di guerra. Il rovescio della medaglia è che un’identificazione errata può avere conseguenze terrificanti per i profilati. Ton-That stesso sottolinea che il suo sistema non deve essere usato come l’unica fonte di identificazione e si è opposto al suo uso in violazione della Convenzione di Ginevra, ma in ultima analisi, starà al singolo operatore attenersi a questi princìpi.
Clearview AI, che offre i suoi servizi soprattutto alle forze di polizia americane, è tra le più controverse del settore per via delle sue pratiche di raccolta dati. Per questo è alle prese con diversi processi negli States, e non solo, contro chi l’accusa di aver violato la privacy delle persone profilate a loro insaputa. È altamente probabile che chiunque abbia mai avuto i profili social “aperti” sia finito nel database dell’azienda americana.
Clearview sostiene che la sua maniera di raccogliere i dati sia equiparabile al funzionamento di motori di ricerca come Google Search. Meta (già Facebook, uno dei principali serbatoi di immagini per Clearview) ha ingiunto all’azienda di non prendere più i dati dalle proprie piattaforme. Il metodo è stato dichiarato fuorilegge in diversi Paesi, tra cui Australia e Regno Unito, e pochi giorni fa anche il garante della privacy italiano ha colpito l’azienda con una multa da 20 milioni di euro per aver raccolto materiale su chissà quanti milioni di italiani.