La parola big data significa tutto e niente. La traduzione letterale “grandi” o “tanti” dati trasmette l’idea di una grande quantità ma ci dice poco sulla qualità. Tra i giuristi e gli ingegneri informatici la definizione non è univoca, ma si è concordi sul fatto che la parola big data si riferisce più al trattamento che alla tipologia. Dunque per parlare di big data non basta solo avere una grande quantità di informazioni, ma servono anche gli strumenti tecnologici necessari per poterle gestire e analizzare. Sono le big companies, tra cui Amazon, Google e Facebook, ad aver creato i big data circa dieci anni fa, quando nelle loro mani ci fu una sorprendente esplosione di dati capace di rivoluzionare l’intero settore. Fu impossibile ignorarli. Generalità, contatti, numeri di telefono, indirizzi, informazioni personali, fotografie, video, spostamenti, itinerari, soste, documenti, numeri di carte di credito, acquisti, ricerche, commenti, mi piace e tante altre attività continuano a essere registrate in tempo reale su telefoni e computer, fornendo non solo statistiche interessanti quando vengono analizzate aggregate, ma anche quando si utilizza il dato individuale.
Circa 7 miliardi e mezzo di esseri umani popolano il mondo. Secondo la ricerca della Digital in 2017 Global Overview, quasi due terzi della popolazione mondiale ha un cellulare e più della metà del mondo utilizza uno smartphone. Quasi 4 miliardi di persone navigano su internet e circa 3 miliardi sono attive sui social media. Questi numeri danno l’idea della quantità di informazioni raccolte in tempo reale. La necessità di gestire questa enorme quantità di dati eterogenei ha fatto sì che le compagnie stesse s’ingegnassero per dare vita a nuove tecnologie (tra cui gli algoritmi) in grado di utilizzare per diversi scopi il continuo flusso di dati provenienti da tutto il mondo.
I problemi derivanti dalla gestione di questo tipo di informazioni riguardano molteplici aspetti, dalla sicurezza informatica alla tutela della privacy, dalla disciplina dell’accessibilità alla conservazione. Problemi che hanno bisogno di soluzioni rapide. Il mondo giuridico per primo s’interroga su come tenere il passo del progresso tecnologico, ma la verità è che in questi dieci anni gli Stati sono sempre rimasti un passo indietro rispetto alle big companies e l’Italia non fa eccezione. I dati hanno smesso di avere le caratteristiche di un tempo e i sistemi tradizionali di catalogazione e analisi sono stati messi in crisi. Informazioni eterogenee registrate così velocemente hanno creato la necessità di una risposta immediata. Il valore diventa così strettamente legato alla velocità di gestione delle informazioni, con l’obiettivo di renderle utili per diversi scopi.
Ad esempio, combinando un gran numero di segnali provenienti da azioni di un utente e da quelle degli amici, Facebook è riuscita a creare un nuovo tipo di attività pubblicitaria ad personam. Dunque, l’emergere di big data nel settore delle imprese ha portato con sé una necessaria controparte: l’agilità. La definizione di big data si lega inevitabilmente a quella di data mining (estrazione), cioè “l’attività di selezione, esplorazione e modellizzazione di grandi quantità di dati, attraverso tecniche statistiche, al fine di individuare regolarità o relazioni non note a priori e traducibili in informazioni chiare e rilevanti”. A questa analisi seguono interpretazioni, valutazioni e rappresentazioni dei risultati (infografiche). Essere in grado di elaborare le informazioni in tempo ragionevole rimuove la necessità di campionamento e promuove un approccio investigativo sui dati, in contrasto con la loro natura statica.
“Amazon, Google e Facebook li chiamano semplicemente dati, tutti gli altri li chiamano big data quando si riferiscono all’enorme quantità di informazioni che queste big companies registrano ed elaborano ogni giorno”, aveva detto a Formiche.net Fabiana Lanotte, software developer del Team per la Trasformazione Digitale voluto dal governo Renzi. Dunque, in Italia possiamo chiamare big data quelli della sanità, dell’istruzione, delle pensioni, dell’energia o della giustizia? Abbiamo la capacità di gestirli? In che modo possiamo utilizzarli? L’unica certezza al momento è che quando si parla di big data è ancora difficile trarre conclusioni, perché i confini sono ancora indefiniti e in continua evoluzione. In conclusione, la nota definizione delle 3V (Volume, Velocità, Varietà) non è più sufficiente per spiegare cosa sono i big data, perché in questa definizione rientrano questioni di valore, veridicità, predittività, esaustività, flessibilità e tanti altri fattori. Per mettere ordine su questo tema Formiche.net continuerà a pubblicare una serie di approfondimenti con l’obiettivo di capire che cosa siano i big data e a che punto siamo arrivati in Italia.
Qui la prima puntata dello speciale a puntate di Formiche.net: Big data e Pubblica amministrazione digitale. A che punto siamo?
(Illustrazione di Livia Albanese Ginammi)