Skip to main content

Apple, il sistema anti-abusi su minori è un incubo per la privacy (di tutti)

Esplode il dibattito attorno alle nuove misure anti-pedopornografia di Apple, sistemi automatizzati e pervasivi che secondo gli esperti aprono “buchi” nella privacy degli utenti e possono rapidamente diventare strumenti di sorveglianza di massa

Apple pensa di aver trovato la quadra tra proteggere la privacy dei propri utenti e contrastare la diffusione di materiale pedopornografico. Il gigante tecnologico ha presentato un nuovo sistema di monitoraggio automatico (in arrivo a settembre) che controllerà continuamente le immagini personali degli utenti per scovare foto e video illegali. Un altro sistema avvertirà i genitori se un minore riceve o invia materiale esplicito. Nonostante i meccanismi di anonimizzazione e protezione previsti, le implicazioni per la privacy personale dell’utente finale sono serissime.

L’azienda assicura che il processo sarà criptato, poco invasivo e sicuro, ma la sola prospettiva ha fatto drizzare i capelli agli esperti di privacy e agli attivisti per i diritti digitali. Senza nulla togliere alla lotta alla pedopornografia, molti si sono scagliati contro quello che in sostanza è un sofisticato sistema di sorveglianza di massa, un “buco” sistemico nella privacy dei cittadini che potenzialmente può essere riconfigurato per segnalare altri contenuti, da quelli terroristici a  quelli antigovernativi o “sediziosi”.

Il pericolo futuribile è che Apple consegni nelle mani delle autorità in giro per il mondo una backdoor (entrata posteriore, ndr) nei cellulari delle persone, affiancata da uno strumento di sorveglianza sofisticatissimo e al contempo malleabile. Senza contare che questo precedente potrebbe aumentare la pressione sulle altre aziende tecnologiche, che si vedrebbero costrette a seguire l’esempio (influente) di Apple, la stessa azienda che pur di difendere la privacy dei propri utenti si rifiutò di sbloccare il telefono di un terrorista e finì in tribunale contro il governo degli Stati Uniti.

“Non importa scoprire se [Apple] abbia ragione o torto”, ha twittato Matthew Green, professore di crittografia alla Johns Hopkins University. “Tutto questo romperà la diga: i governi lo richiederanno a tutti. E quando scopriremo che è stato un errore, sarà troppo tardi”. E se alcuni governi (tra cui Usa e India) spingono da anni per ottenere accesso quasi indiscriminato alla vita digitale dei propri cittadini in nome della sicurezza, per altri (Cina) sistemi come questo sono già operativi – anche grazie alla facilitazione della stessa Apple.

Come funziona il monitoraggio di Apple

Quasi tutti i maggiori social media e le soluzioni di archiviazione in cloud già operano per identificare materiale pedopornografico sui propri servizi. La differenza cruciale del sistema di Apple, in arrivo a settembre con i prossimi aggiornamenti (iOS 15, iPadOS 15, watchOS 8 e macOS Monterey), è che agirà direttamente sul dispositivo, scansionando attivamente la libreria di contenuti per trovare correlazioni con il materiale stivato in un database governativo. Almeno inizialmente il progetto partirà solo negli Usa.

L’azienda californiana chiama il suo algoritmo di monitoraggio “neuralMatch”, un chiaro riferimento alle reti neurali, ossia una tecnica di machine learning per cui un’intelligenza artificiale impara autonomamente a distinguere e correlare le immagini addestrandosi su banche dati immense, per poi operare decisioni anche su materiale mai visto prima (le applicazioni più note sono nella sorveglianza pubblica e nel riconoscimento facciale). In questo caso, il sistema si è addestrato su un archivio di oltre 200.000 immagini di abusi sessuali raccolte da alcune Ong americane, tra cui il National Center for Missing and Exploited Children (Centro nazionale per i bambini scomparsi e sfruttati, ndr).

Naturalmente non avviene tutto in chiaro. Le foto e i video personali degli utenti vengono convertite in stringhe di numeri con un processo detto hashing, e il confronto con il database governativo avviene sulla base di questi codici, già salvati preventivamente su ogni dispositivo in forma “cieca”. Ogni foto (o video) verrà marcata come sospetta o meno finchè, rggiunta una data soglia di materiale sospetto, Apple consentirà a un team di analisti umani di decrittarlo. Solo allora, se l’équipe lo riterrà illegale, il tutto viene spedito alle autorità assieme alle informazioni dell’account.

One more thing. La casa californiana ha anche approntato un modo per monitorare attivamente le conversazioni private sulla propria applicazione di messaggistica, ma senza che Apple possa accedervi e solo se il dispositivo è di un minore. Se questi riceve un contenuto che il sistema segnala come sessualmente esplicito, lo vedrà sfocato assieme a una serie di avvertimenti e spiegazioni; se deciderà di visualizzarlo per intero, i genitori ricevono un avviso. Idem se il minore decide di mandare materiale esplicito anche dopo un avvertimento (“sei sicuro/a?”) del sistema. Infine, a tutti gli utenti verranno servite informazioni e link di supporto se lanceranno una ricerca web utilizzando parole-chiave associate alla pedopornografia.

Le criticità

Partiamo dal livello tecnologico e dal rischio di un falso riscontro positivo, per cui (esempio) le foto legali e private di un utente verrebbero prelevate e spedite al governo. Apple assicura che le possibilità che un account venga segnalato erroneamente sono “meno di una su mille miliardi all’anno”. Ma mettendo da parte per un istante questa asserzione, ci si dovrebbe concentrare sulle reti neurali e sulla loro tendenza (dimostrata più volte) di risultare tanto meno precise quanto più il materiale all’esame diverge da quelli del database. Senza entrare troppo nei dettagli, basti sapere che negli Usa questi software hanno già portato all’arresto erroneo di persone di colore (si vedano i casi inerenti a Clearview AI).

Secondo, l’implementazione di una backdoor come il monitoraggio attivo dei messaggi vanifica lo standard industriale per cui le comunicazioni private, ad oggi, sono end-to-end encrypted (crittate dall’una all’altra estremità, ndr). Scrive il Center for Democracy & Technology, un think tank, che “il meccanismo che consentirà ad Apple di scansionare le immagini in Messaggi non è un’alternativa a una backdoor: è una backdoor. La scansione [dal lato del cliente] su una “estremità” della comunicazione viola la sicurezza della trasmissione e informare una terza parte (il genitore) del contenuto della comunicazione ne mina la privacy. Le organizzazioni di tutto il mondo hanno messo in guardia contro tale scansione perché potrebbe essere utilizzata da governi e aziende per controllare il contenuto delle comunicazioni private”.

Il discorso è che a prescindere dalle buone intenzioni dietro allo strumento, e volendo anche tralasciare il fatto che ogni cittadino verrebbe monitorato alla stregua di un sospettato criminale senza presunzione di innocenza, lo strumento in sé rappresenta un “buco” potenzialmente devastante, specie se nelle mani di uno stato autocratico, ma altrettanto pericoloso (e illegittimo) in un ambiente democratico. Perché il database un domani potrebbe essere espanso secondo i desiderata delle autorità e diventare un sistema efficientissimo di profilazione.

Già si parla di espandere il database americano per comprendere contenuti relativi al terrorismo, come i video di decapitazioni, ma vale la pena ricordare che la definizione di terrorismo sta ai governi. Basta guardare alla Russia e alla Bielorussia per vedere come queste definizioni possono essere rivolte contro i dissidenti e gli attivisti politici. La ricercatrice Sarah Jamie Lewis ha definito l’aggiornamento di Apple un “momento Rubicone per la privacy e la crittografia end-to-end […] Quanto tempo pensate che passerà prima che il database venga ampliato per includere contenuti “terroristici”? Contenuti “dannosi ma legali”? Censura statale? Odio parlare di terreni scivolosi, ma guardo la china, e i governi di tutto il mondo la stanno coprendo di olio, e Apple ha appena spinto i suoi clienti oltre il limite”.

Dopo anni di progresso nel confronto (soprattutto occidentale) tra privacy e sicurezza, il sistema di monitoraggio proposto da Apple è sicuramente una vittoria per le associazioni (e per i governi) che da anni chiedono assistenza alle aziende tecnologiche nell’identificare i criminali che si macchiano di delitti pedopornografici. Ma è anche un passo indietro per quanto riguarda la possibilità di intrusione delle autorità nella vita privata dei cittadini, pur con tutti i sistemi di sicurezza del caso, con ripercussioni potenzialmente orwelliane. Considerando che misure del genere sono allo studio anche in Europa, è opportuno che il confine tra privacy e sicurezza venga tracciato e deciso anche in virtù di un sostenuto discorso pubblico.



×

Iscriviti alla newsletter