Perché una società americana dovrebbe creare dei data center in Europa, e in particolare in Italia, nelle zone di Milano e Torino? Perché la richiesta di “prossimità” dei propri dati aumenta sia da parte delle aziende che della Pubblica amministrazione. Vuol dire minore latenza (la velocità in cui il dato arriva dal punto A al punto B), mantenendo però la possibilità di usare gli strumenti e le piattaforme di una rete globale. Di questo e molto altro abbiamo parlato con Martina Colasante, Public Policy Manager di Google

Technopolicy, il podcast di Formiche.net 

All’incrocio tra tech e politica, tra innovazione e relazioni internazionali, tra digitale e regolazione, abbiamo deciso di creare un nuovo “contenitore”, Technopolicy. 

Ogni settimana incontrerò esperti, accademici, manager, giuristi, per discutere di un tema specifico e attuale. Ciascuno di questi incontri diventerà un video su Business+, la nuova piattaforma tv on demand; un podcast su Spreaker, Spotify, Apple e gli altri canali audio; un articolo su Formiche.net. Perché ognuno ha il suo mezzo preferito per informarsi e a noi interessa la sostanza e non la forma. Gli episodi sono stati scritti e prodotti insieme a Eleonora Russo.

________________

Clicca qui per vedere l’episodio integrale su Business+, la tv on demand

 

Clicca qui per ascoltare il podcast su Spotify

Clicca qui per ascoltare il podcast su Apple podcast

Clicca qui per ascoltare il podcast su Spreaker

________________

Technopolicy – Data center europei e cloud aperto. A che punto siamo?

Data center, migrazione, cloud. Un mondo che immaginiamo etereo e impalpabile, rappresentato da una nuvola sopra le nostre teste in cui ballano byte e gigabyte, anzi ormai terabyte, o forse petabyte, exabyte… ecco, non importa quanti siano, tutti questi dati non ballano nelle nuvole ma passano per cavi, server, data center, un’infrastruttura fisica fondamentale per garantire la sicurezza, l’affidabilità e l’efficienza di servizi da cui dipendono le nostre vite. Da qualche tempo è entrato in campo un ulteriore fattore: la prossimità. Lo chiedono alcune aziende e pubbliche amministrazioni, e ne beneficiano gli utenti, accorciando le distanze tra noi e i custodi dei nostri dati. Di questo e molto altro discutiamo con Martina Colasante, Government Affairs & Public Policy Manager di Google.

Ci racconti il tuo percorso professionale?

Sono di origine abruzzese ma vivo a Roma ormai da 17 anni. Ho studiato Scienze Politiche alla Luiss e poi Teoria delle Relazioni Internazionali alla London School of Economics. Sono stata poi in India per sei mesi. Al rientro, ho fatto varie esperienze che mi hanno portato ad entrare in Reti, società di consulenza e relazioni istituzionali di Roma, dove sono rimasta per 7 anni. Lì ero anche consulente di Google ed è così che mi sono avvicinata ai temi che tratto adesso in Google, dove sono da 4 anni e rivesto il ruolo di Public Policy Manager. Seguo, in particolare, questioni relative al cloud, alla cybersecurity, alla sicurezza dei minori e alla data governance. Stiamo vivendo un momento di grande dinamismo perché questi temi attualmente sono caldissimi. 

Oggi si parla molto di migrazione, Data Center e digitalizzazione dell’infrastruttura nazionale. La trasformazione di un Paese passa sempre di più per il cloud e per la connessione di una serie di dati, informazioni e processi che finora erano confinati in cluster e sistemi chiusi spesso inefficienti. Ci spieghi il fenomeno data center e la sua evoluzione? 

La digitalizzazione del tessuto produttivo europeo e soprattutto dei servizi della pubblica amministrazione è un tema al centro del dibattito. Abbiamo visto durante i giorni peggiori del Covid l’importanza di poter contare su servizi digitali affidabili e accessibili anche da casa, che ci hanno permesso di lavorare attraverso strumenti di collaborazione. La conseguenza positiva di un momento così drammatico è stata sicuramente l’accelerazione a livello europeo e nazionale della spinta alla digitalizzazione del nostro footprint tecnologico. Attitudine che è oggi iscritta nel Pnrr e nella Strategia Cloud nazionale che, come sappiamo, fissa l’obiettivo di migrare il 75% dei servizi della pubblica amministrazione sul cloud. 

Google sostiene questo nuovo paradigma collaborando con i governi dal punto di vista delle policy, dell’interlocuzione costante e degli investimenti. Per noi oggi è davvero importante accrescere la nostra dimensione europea investendo sui territori e spostando la nostra rete globale con data center localizzati anche in Italia. Abbiamo recentemente aperto le nostre due region nazionali, a Torino e Milano, che sono un insieme di data center finalizzati ad offrire ai nostri clienti dei servizi sicuri, resilienti e più efficienti. La loro prossimità fisica alle aziende, di fatto, abilita una latenza minore e quindi una maggiore velocità e la possibilità per i nostri clienti di offrire a loro volta delle soluzioni tecnologiche migliori. I nostri data center italiani sono naturalmente collegati alla rete globale Google e questo li rende sicuri. Sono cioè collegati ad una rete progettata e costruita da Google sia dal punto di vista dell’hardware che del software e utilizzata per fornire i nostri servizi. 

L’apertura delle due region nazionali è anche un modo per manifestare il desiderio dell’azienda di essere più europea e più italiana. Tra l’altro la presenza sul territorio ci permette di offrire dei servizi “sovrani” nel senso che i nostri clienti italiani possono scegliere di localizzare i loro dati sul territorio nazionale. Questo consente di offrire una vasta gamma di strumenti che abilita una maggiore proprietà dei dati stessi, permettendo di localizzarli e, ad esempio, di mantenere la chiave di encryption fuori dal cloud Google e affidarla al cliente o ad ad altri partner.

Un’altra opzione resa possibile dai data center sul territorio nazionale è quella del cloud disconnesso e quindi di un’infrastruttura che funziona con strumenti esterni slegati dalla rete Google. Questo garantisce una serie di possibili esigenze di sovranità soprattutto per i soggetti che trattano dati particolarmente critici o strategici, come governi o clienti che operano in mercati fortemente regolati. 

Il settore del cloud, come ci raccontavi, è in rapidissima evoluzione. Sia in termini strettamente tecnologici ma anche da un punto di vista di concezione di come i dati vengono trattati e gestiti. Google, in particolare, ha optato per un modello aperto e ibrido che abilita la comunicazione anche con gli altri provider. Come funziona esattamente questo modello?

Google crede in un modello di cloud aperto e interoperabile. Soprattutto perché abbiamo clienti molto diversi, dalle Pmi ai campioni nazionali fino ai governi. In generale, quando si parla di cloud e dei vantaggi delle economie di scala sembra quasi che ci si riferisca ad un modello “o tutto o niente”. In realtà, dialogando con i nostri clienti, abbiamo potuto comprendere che non funziona e che spesso la migrazione al cloud è un processo che si esaurisce in anni e che talvolta riguarda solo alcuni workload delle organizzazioni complesse. Queste esigenze possono essere gestite solo attraverso una formula di multi cloud basata su strumenti e servizi open source. Per Google questa è sempre stata la filosofia nell’approccio e nel disegno di servizi cloud. Anche perché, secondo noi, è l’unica soluzione alla cosiddetta serviceability, cioè quella situazione in cui il cliente, per ragioni di compliance, policy o cambiamenti nello scacchiere geopolitico, non può più utilizzare i nostri servizi ma deve comunque poter contare sulla sicurezza e sulla disponibilità delle informazioni detenute in cloud. Si tratta di uno scenario che può essere ovviato solo utilizzando lo standard open source che rende possibile spostare i propri workloads da Google a qualsiasi altro cloud provider. 

Kubernetes, la piattaforma di Google portatile, estensibile e open-source per la gestione di carichi di lavoro e servizi containerizzati, è oggi lo standard dell’industria per la migrazione open source nel cloud.  Anche perché abbiamo una certa esperienza nella produzione e nel design di strumenti per l’open source. Il nostro Chief Economist Hal Varian ci tiene a ribadire che l’open source non è soltanto utile per soddisfare le esigenze tecnologiche dei nostri clienti, ma che il modello ibrido multi cloud di fatto è un beneficio anche per la società proprio perché è la base per lo sviluppo di nuove tecnologie. 

Vorrei soffermarmi anche sul tema della sostenibilità. È sotto gli occhi di tutti l’importanza di ridurre il consumo energetico e di adottare degli stili di vita e dei modelli di consumo di consumo più sani. Google dal 2007 è carbon-neutral e compensa il 100% dell’energia utilizzata attraverso l’acquisto di energia rinnovabile.  Siamo tra i più grandi acquirenti di energia verde e recentemente abbiamo annunciato l’impegno di voler raggiungere entro il 2030 l’esclusivo utilizzo di green energy verde 24 ore su 24. La tecnologia ci viene incontro e abbiamo oggi degli strumenti basati sul machine learning che ci permettono di ottimizzare i nostri data center in termini di consumo ed efficienza. Utilizzando la nostra tecnologia riusciamo a gestire il raffreddamento degli storage. E anche questo è un servizio open source a disposizione dei nostri clienti ma anche delle organizzazioni che operano sul mercato. 

I data center che avete aperto in Italia che impatto hanno in termini di occupazione e di valore aggiunto generato? 

Nel 2019 abbiamo annunciato un investimento di 900 milioni di dollari, operazione che si è concretizzata nella realizzazione delle due region di Milano e Torino. Questo investimento include iniziative per la digitalizzazione dell’intero tessuto produttivo nazionale e per il supporto alle Pmi nell’acquisizione di competenze digitali. Il progetto esprime molto bene il desiderio di Google di fare qualcosa per l’Italia e di collaborare con il governo italiano, con le piccole e medie imprese e con i grandi campioni nazionali. C’è inoltre un importante impegno da parte nostra nel supportare la creazione e lo sviluppo di nuove competenze. Proprio perché un processo accelerato di digitalizzazione richiede expertise da inserire nelle organizzazioni che decidono di passare al cloud non solo per la migrazione ma anche per l’utilizzo dei nostri servizi più innovativi, come i sistemi di machine learning e intelligenza artificiale. Insieme a Banca Intesa e a Tim Noovle abbiamo promosso un’iniziativa su Torino chiamata Opening Future che mira a creare valore per il tessuto produttivo locale attraverso la formazione in ambito tecnologico. 

Ci consigli qualcuno da leggere o seguire?

Vi darò una risposta che probabilmente non vi aspettate da Google. Vi consiglio il fumetto di Brian Vaughan, che è anche uno degli sceneggiatori della serie Lost, intitolato The Private Eye. La storia è quella di uno scenario distopico scatenato a partire dalla caduta del cloud. Leggendo ci troviamo immersi in un mondo senza internet in cui vi è un’epidemia di dati personali. A raccogliere i dati personali sono i giornalisti e gli strumenti di controllo privacy sono costumi, maschere e camuffamenti vari. Gli investigatori privati sono i paparazzi. È un noir che tratta tutta una serie di paradigmi molto divertenti. 

Condividi tramite