Algoritmi e Intelligenza Artificiale. La rivoluzione dei big data e l’esempio di Google Street View

Algoritmi e Intelligenza Artificiale. La rivoluzione dei big data e l’esempio di Google Street View
Dalla straordinaria capacità di elaborazione di questa sterminata moltitudine di elementi in formato digitale, che l’umanità ha spontaneamente riversato online negli ultimi decenni, si possono estrapolare delle previsioni. L'analisi di padre Paolo Benanti

Google Street View è una funzione inglobata nel servizio cartografico del colosso di Mountain View Google Maps e Google Earth. In pratica Google fornisce viste panoramiche a 360° gradi in orizzontale e a 160º in verticale lungo le strade mappate – le immagini sono prese a distanza di 10-20 metri l’una dall’altra – e permette agli utenti di vedere parti di varie città del mondo con una prospettiva non aerea come una classica mappa ma a livello del terreno.

Il servizio fin dalla sua implementazione ha prodotto reazioni ambivalenti. All’uscita di Google Street View si sono scatenate delle polemiche sulla privacy per il forte livello di dettaglio delle immagini: usando il servizio è possibile riconoscere le persone. Più di qualcuno ha detto che essendo le foto riprese all’insaputa dei passanti, questi potrebbero essere riprese in situazioni poco consone o potrebbero rendere note posizioni o compagnie che non vogliono che lo siano. Per l’utilizzo di alcune immagini Google si è appellata al fatto che queste fossero di dominio pubblico, ad altre ha provveduto a rimuovere o modificarle, tanto da implementare anche un servizio che consente all’utente di avvisare Google e rimuovere foto che possano ledere la privacy. Su più fronti è stato anche chiesto l’oscuramento dei volti e delle targhe delle automobili. Ad oggi il software implementa un algoritmo che autonomamente individua targhe e volti, oscurandoli graficamente.

Ci sono stati dei casi che hanno fatto notizia. A dicembre del 2007 le auto di Street View avrebbero potuto fotografare una zona di Melbourne dove è avvenuto un omicidio e Google è stata chiamata in tribunale come testimone. Nel giugno del 2009, invece, uno scatto ripreso a Groninga, nei Paesi Bassi, ha permesso alla polizia di arrestare due giovani che nel settembre del 2008 avevano compiuto uno scippo.

Se questa raccolta dati di Google in strada è controversa con la possibilità di far elaborare questi dati a dei sistemi dotati di AI rende la questione ancora più intricata. Di fatto le immagini contenute in Google Street View, essendo prese in strada, sono piene di automobili. Questo è una dato semplice ed assodato. Alcuni ricercatori che lavorano con l’intelligenza artificiale hanno pensato di sfruttare sfruttare questi dati presenti nel sistema per ottenere informazioni sorprendenti.

Ci sembra importante sottolineare come lo scopo del servizio sia quello di aiutare un utente a riconoscere un posto offrendogli una prospettiva dell’indirizzo geografico con la stessa prospettiva che ha un pedone. Tutti gli elementi non architettonici e mobili, come persone che camminano, biciclette, auto e autobus, sono di fatto rumore e inutili per il servizio offerto dalla sussidiaria di Alphabet. I ricercatori hanno però dimostrato qualcosa di sorprendente. Anche il rumore è una forma di dato e può essere utilizzato per estrarre informazioni magari non previste o non pensabili al momento della raccolta del dato stesso. Analizzando il tipo di auto, marca e modello, che compare nelle foto di Google Street View, i sistemi di AI implementati sono stati in grado di fare previsioni molto accurate estraendo informazione demografica dettagliata e granulare sulle persone nelle città che hanno studiato.

Ad esempio, il team di ricerca, in gran parte della Stanford University, ha chiesto alle AI se la computer vision mostrava che vi fossero più camion, più pickup o più berline in una data città. Grazie ai dati emersi e alle elaborazioni svolte il sistema era in grado di fornire le seguenti indicazioni demoscopiche. Con un maggior numero di camioncini, l’area urbana aveva una probabilità dell’82% di votare repubblicano, mentre, con più berline, c’era l’88% di possibilità che il quartiere votasse democratico.

I sistemi di intelligenza artificiale funzionano e sono maggiormente affidabili quando lavorano enormi quantità di dati e possono fare previsioni su ciò che “vedono” in essi. In questo caso, i dati erano costituiti da oltre 50 milioni di immagini su 200 città mappate in Google Street View. Queste immagini sono state elaborate con una tecnica di riconoscimento degli oggetti per permettere al software di individuare le auto tra gli altri oggetti presenti nelle immagini. A questo punto è stato necessario fornire dei dati strutturati al sistema. I ricercatori hanno dovuto processare un database con la classificazione di quei veicoli. Nelle immagini di Gooogle erano presenti ben 22 milioni di veicoli, cioè l’8% di tutte le auto americane. Queste andavano mappate e classificate secondo per marca, modello e anno.

Questo lavoro di sorting e classificazione è stato fatto addestrando un’AI basata su un algoritmo a rete neurale che è stato così in grado di identificarli. Nel caso specifico, come si è appreso, hanno usato una rete neurale convoluzionale, che, al momento, rappresenta una delle soluzioni più efficienti per gestire le immagini.

La rete neurale ha processato 50 milioni di immagini in sole due settimane. Se lo stesso lavoro lo avesse dovuto compiere un intellignza umana, secondo i risultati della ricerca pubblicati sulla rivista PNAS ci sarebbero voluti circa 15 anni. Una prima questione che qui è importante evidenziare è la seguente: il vantaggio dell’AI non è solo nella potenza di calcolo – due settimane contro quindici anni – ma anche nella capacità che ha l’AI di mantenere pertinenza al dato. In due settimane i 50 milioni di veicoli erano ancora il patrimonio di veicoli circolanti in quelle città, in quindici anni il dato anche se elaborato non sarebbe stato più indicativo di alcunché perché troppo vecchio e non associato più alla realtà.

Realizzato che il machine learning e gli altri algoritmi di AI potevano dare un significato al rumore nelle fotografie in un tempo che rendesse ancora utile le informazioni estratte, si trattava di capire come utilizzare queste informazioni che prima giacevano mute nei dati. Gli autori dello studio hanno voluto provare a capire capire come il tipo di auto fosse associato a fattori come le inclinazioni politiche dell’area e altre informazioni demografiche. Per fare questo, hanno applicato un altro tipo di algoritmo molto efficiente nell’ambito del machine learning: l’analisi della regressione. L’analisi della regressione è una tecnica usata per analizzare una serie di dati che consistono in una variabile dipendente e una o più variabili indipendenti. Lo scopo è stimare un’eventuale relazione funzionale esistente tra la variabile dipendente e le variabili indipendenti. La variabile dipendente nell’equazione di regressione è una funzione delle variabili indipendenti più un termine d’errore. Di fatto l’analisi della regressione è un uno strumento matematico e statistico perfetto, per vedere se e come un tipo di veicolo sia in correlazione con le informazioni ottenute da altri set di dati come quelli inerenti al voto o al censo.

In definitiva, ciò che è emerso è quello. Con un sistema di AI possiamo guardare a tutti i dati come possibili fonti di informazioni. Quello che sembrava essere rumore, oggetti mobili che disturbavano la visuale in foto scattate per altre finalità, sono diventate fonti di informazioni sorprendentemente accurate. Questo risultato e la sorpresa nel grado di accuratezza raggiunto è stato commentato da Timnit Gebru, il primo autore dello studio e ricercatore presso il Laboratorio di Intelligenza Artificiale di Stanford.

Allo stato attuale ovviamente il sistema non è così preciso da poter sostituire effettivamente un censimento, anche se si potrebbe utilizzare per compierne uno e si potrebbe poi confrontare il risultato ottenuto con quello fornito dal censimento tradizionale.

Ma il quadro generale è più grande delle semplici immagini di automobili e delle previsioni sulle storie di voto. Gebru afferma che la strategia rappresenta un nuovo tipo di strumento che gli scienziati sociali possono sfruttare utilizzando le tecniche offerte dalle IA su una grande quantità di dati, come quelle offerte in questo caso da Google Street View. E non ci si deve limitare solo su auto e politica naturalmente. I ricercatori potrebbero guardare alle correlazioni tra gli alberi, per esempio, e la salute pubblica. Inoltre a questo punto non si deve pensare che siano rilevanti solo le fotografie delle strade, si potrebbero setacciare fotografie satellitari.

La questione, se da un lato mostra lo sviluppo delle AI in modi sempre nuovi e impensati ci porta a chiederci alcune questioni o a fare delle domande di senso. In primo luogo emerge come la datificazione progressiva della realtà e le informazioni, previste o impreviste, che da questo processo si possono ricavare sia un tema sempre più urgente da affrontare. In questo caso una serie di immagini prese per strada forniscono dati su aspetti sensibili, come convinzioni personali, reddito e idee politiche , sulle persone. Possiamo pensare di lasciare libero accesso a questi dati? Le persone in un mondo sempre più digitale lasciano delle impronte che i sistemi di AI possono non solo leggere ma anche utilizzare per profilare, investigare e ottenere informazioni che non si era intenzionati a cedere. Questo è lecito? Si dovrebbe rendere possibile ai cittadini decidere quali e quanti dati si possono raccogliere senza che loro lo sappiano? Chiaramente questi proof of concept, come quello appena descritto chiedono di ridefinire il confine, specie nel campo dei dati, tra pubblico e privato, tra vita in pubblico e dati pubblici e vita in privato e dati privati. La sfida è grande.

In secondo luogo da quando non solo abbiamo imparato a vedere la realtà come un insieme di dati ma abbiamo anche imparato a collezionarli, i big data, ci siamo dotati di un nuovo strumento di indagine. Tre secoli fa con le lenti concave abbiamo realizzato il telescopio e il microscopio, imparando a vedere il mondo in modo diverso. Microsocpio e telescopio costituirono gli strumenti tecnologici con cui la rivoluzione scientifica del 600 e del 700 ha ottenuto le sue scoperte. Abbiamo reso visibile l’estremamente lontano telescopio – e l’estremamente piccolo – microscopio -. Oggi con i dati abbiamo realizzato un nuovo “strumento” il macroscopio. Con i big data noi riusciamo a vedere in maniera nuova e sorprendente l’estremamente complesso delle relazioni sociali individuando relazioni e connessioni dove prima non vedevamo nulla. Le AI e il machine learning applicati a questi enormi set di dati sono il macroscopio con cui studiare meccanicisticamente l’estremamente complesso. Spetta a noi capire che tipo di conoscenza stiamo generando. Se questa forma di conoscenza sia scientifica e in che senso sia deterministica o predittiva è tutto da capire. Tuttavia la rivoluzione conoscitiva, come con il telescopio e il microscopio, è già in atto.

Infine, guardiamo al modo con cui approcciamo i database e i big data. I big data sono dei database che raccolgono enormi quantità di diversi tipi informazioni che vanno dai testi all’audio, dai video alle immagini, dai like su Facebook alle transazioni monetarie, e che richiedono l’utilizzo di calcolatori estremamente potenti per riuscire a gestirli. Dalla straordinaria capacità di elaborazione di questa sterminata moltitudine di elementi in formato digitale, che l’umanità ha spontaneamente riversato online negli ultimi decenni, si possono estrapolare delle previsioni. Sempre di più, almeno nell’attività lavorativa, i dati sono diventati una meta sicura: i numeri non mentono, rispondono sempre e sono sempre disponibili. Per chi sa cose domandare un database è l’interlocutore ideale. Ma oggi si può fare molto di più: i dati sono in grado di fornire risposte a domande che non siamo in grado di fare. È questo, in fondo, il risultato più innovativo di quella scienza nascente che si chiama big data, ovvero la capacità di raccogliere dati eterogenei e di individuare relazioni, collegamenti, connessioni inaspettate. Le aspettative sono elevatissime e molte aziende sono impegnate nella costruzione di questo grande oracolo personale. Per il momento soprattutto accumulano dati, tanto che le quantità di informazioni archiviate stanno crescendo a ritmi travolgenti. Si comincia già a parlare dell’era dei BrontoByte, un’unità di misura dei dati fino a qualche anno fa inimmaginabile, ma a cui già oggi si avvicinano alcune organizzazioni che anni accumulano instancabilmente byte da ogni fonte. La vera sfida, però, è far parlare questo nuovo oracolo digitale, capire cosa ci dice. Allora i dati diventano gli dei del XXI secolo. Sono loro i vati e gli oracoli da interrogare per sapere i segreti che sono nascosti nel nostro futuro.

Tutto questo, come negli antichi templi pagani, richiede però un sacrificio. Quello che oggi ci è chiesto di sacrificare non è una vita animale o un’essere umano ma la nostra privacy!

(Articolo pubblicato sul blog di Padre Paolo Benanti)

ultima modifica: 2018-04-03T08:40:43+00:00 da Redazione

 

 

 

 

 

Chi ha letto questo articolo ha letto anche: