Skip to main content

Technopolicy – Santacroce, l’era della precision regulation

Nella regolamentazione, l’approccio “one size fits all”, prescrivendo l’adozione di regole uguali a fronte di fenomeni, rischi e modelli differenti, è sempre più discutibile. Rispetto alle innovazioni si sta facendo largo nel dibattito europeo il concetto di precision regulation, cioè un approccio alla regolamentazione mirata e commisurata ai livelli di rischio. Ne abbiamo parlato con Alessandra Santacroce, direttore delle Relazioni Istituzionali di Ibm Italia e presidente della Fondazione Ibm

Technopolicy, il podcast di Formiche.net 

All’incrocio tra tech e politica, tra innovazione e relazioni internazionali, tra digitale e regolazione, abbiamo deciso di creare un nuovo “contenitore”, Technopolicy. 

Ogni settimana incontrerò esperti, accademici, manager, giuristi, per discutere di un tema specifico e attuale. Ciascuno di questi incontri diventerà un video su Business+, la nuova piattaforma tv on demand; un podcast su Spreaker, Spotify, Apple e gli altri canali audio; un articolo su Formiche.net. Perché ognuno ha il suo mezzo preferito per informarsi e a noi interessa la sostanza e non la forma. Gli episodi sono stati scritti e prodotti insieme a Eleonora Russo.

________________

Clicca qui per vedere l’episodio integrale su Business+, la tv on demand

Clicca qui per ascoltare il podcast su Spotify

Clicca qui per ascoltare il podcast su Apple podcast

Clicca qui per ascoltare il podcast su Spreaker

________________

Technopolicy – L’era della precision regulation

In un contesto globale innervato dalle innovazioni è sempre più difficile disciplinare l’utilizzo di tecnologie molto diverse tra loro tenendo conto della variabilità individuale di ognuna. E un equilibrio sistemico può essere raggiunto solo con il contributo di un’efficace mediazione giuridica. L’approccio “one size fits all”, prescrivendo l’adozione di regole uguali a fronte di fenomeni, rischi e modelli differenti, è sempre più discutibile. Rispetto alle innovazioni si sta facendo largo nel dibattito europeo il concetto di precision regulation, cioè un approccio alla regolamentazione mirata e commisurata ai livelli di rischio. Alessandra Santacroce, direttore delle Relazioni Istituzionali di Ibm Italia e presidente della Fondazione Ibm, ci aiuta a capire i risvolti pratici di questo modello. 

Ci racconti il tuo percorso professionale?

Quando ripenso al mio percorso professionale vedo due direttrici e caratteristiche principali. La prima è che ho fatto il classico percorso di studi per prepararmi a qualcosa che mi piaceva ma per un lavoro che ancora non esisteva. La seconda, invece, è stata la contaminazione. Dopo Scienze Politiche e un master post universitario sono entrata nelle istituzioni, al Cnel ed esattamente al Dipartimento per la Politica Economica e i Rapporti Istituzionali dove sono stata per diversi anni e ho imparato tantissimo sui meccanismi istituzionali, sull’importanza delle policy e sulla necessità di creare sinergie tra aziende e decision maker. Dopo questa esperienza ero convinta che avrei lavorato nel pubblico ma poi per uno studio che avevo seguito personalmente al Cnel sono entrata in contatto con il mondo della sanità e in particolare delle farmaceutiche.

Pensate che in quel momento non esisteva una vera e propria sezione di rapporti istituzionali ma un’azienda, che era Pfizer,  mi ha assunto proprio per creare un pool di politica sanitaria che poi è diventato il dipartimento di Public Affairs. Sono quindi rimasta per 11 anni nell’innovazione in Pfizer, una grande esperienza, per poi approdare in Ibm come Direttore delle Relazioni Istituzionali. Devo dire che l’innovazione è stata un po’ il fil-rouge delle ultime esperienze che ho fatto in queste due grandi aziende. Guardando indietro, il percorso è stato proprio una contaminazione di fattori e settori diversi. Se non avessi fatto l’esperienza al Cnel probabilmente non sarei stata pronta a crescere in questo ruolo. Un percorso che ho intrapreso perché mi affascinava la facoltà di Scienze Politiche ma non sapevo esattamente cosa avrei fatto da grande. E questo credo succeda a molti, soprattutto in questo momento in cui la particolarità e la differenziazione tra le varie discipline rende sempre più difficile scegliere esattamente la propria strada professionale. 

Parlando di contaminazioni, l’Unione europea, in questi mesi, sta definendo la disciplina dell’intelligenza artificiale cercando di bilanciare diritti fondamentali, sicurezza e necessità di innovazione e di ricerca, che è ancora in fieri. Come Ibm, che si occupa di produrre e creare anche sistemi di intelligenza artificiale, cerca di definire un equilibrio tra queste tre direttrici? 

Rispetto a qualche anno fa l’intelligenza artificiale ha sviluppato enormi potenzialità ed è ormai pervasiva rispetto a tanti settori di business e ambiti di nostra operatività quotidianità. C’è una grande consapevolezza dei benefici ma al tempo stesso c’è una forte domanda di fiducia. Come Ibm abbiamo promosso alcune ricerche sul tema e abbiamo riscontrato che la maggioranza della popolazione europea chiede fiducia e trasparenza ai sistemi di intelligenza artificiale. Trovo importantissimo che il regolatore, in questo caso l’Unione Europea, sia intervenuto con questa proposta di regolamento per disciplinare l’AI assicurando che i comportamenti siano coerenti con quello che deve essere il fine ultimo della sua applicazione: il benessere dell’uomo.

Lo schema definito dall’Ue ci vede d’accordo proprio perché applica e attua il principio del risk based approach che consente di comprendere e regolare i casi di utilizzo, gli use cases,  piuttosto che la tecnologia stessa. Questa postura adottata dalla Commissione è perfettamente coerente con quella che in Ibm chiamiamo precision regulation, un concetto esplicitato dall’azienda in diversi paper che evidenziano la necessità di bilanciare l’indispensabile tutela dei diritti e la fiducia del consumatore con l’apertura a tutte le norme che l’innovazione può portare. Possiamo sintetizzare questo approccio con la frase “regolamenta il caso specifico e non frenare l’innovazione”. 

E su questo tema di policy Ibm è impegnata ormai da anni anche con la formulazione di una serie di principi che devono, secondo noi, guidare l’implementazione dell’intelligenza artificiale. Tra questi, in particolare, la necessità per cui l’AI deve aumentare l’intelligenza umana e non sostituirla, la proprietà dei dati, la trasparenza e quindi la spiegabilità degli algoritmi. Dopo aver enucleato questi principi abbiamo sentito l’esigenza di andare sulla pratica attraverso alcuni pilastri, linee guida, che sono una forma di accountability proporzionata ai casi d’uso, la trasparenza, la fairness security e la necessità di sviluppare sistemi di AI scevri il più possibile da pregiudizi proprio perché sappiamo che essi di fatto replicano i pregiudizi che sono nella mente umana. 

Un esempio di utilizzo di sistemi di intelligenza artificiale è il riconoscimento facciale. In alcuni Paesi è stato limitato per l’utilizzo indiscriminato nei luoghi pubblici, come ad esempio le strade o i parchi. Allo stesso tempo, però, ci sono dei casi di utilizzo di questa tecnologia rivelatesi utili in luoghi come, ad esempio, negli aeroporti. Come si fa a muoversi fra un riconoscimento facciale “buono” e uno “cattivo”? 

Come Ibm abbiamo deciso di non procedere con un’applicazione generalizzata del riconoscimento facciale. Al contrario, nello sviluppo di sistemi di AI, andiamo a valutare di volta in volta quali sono i rischi e quali sono le reali opportunità affiché il riconoscimento facciale possa effettivamente produrre valore. Come dicevo prima, passare dai principi alla pratica significa effettuare un’analisi dell’impatto di rischio in tutte le fasi di sviluppo dei sistemi di AI, dalla ricerca fino alla commercializzazione. A questo proposito abbiamo previsto che ci sia un processo continuo di testing rispetto ad eventuali bias e rischi in tutte  le fasi della vita aziendale di una AI. Per far ciò, un’altra misura utile può essere introdurre un referente all’interno dell’azienda preposto all’intelligenza artificiale che possa supervisionare il processo di impact assessment. Ibm, ad esempio, ha un Ethic board globale che fa esattamente questo in concreto. Tornando al regolamento per l’intelligenza artificiale dell’Unione Europea, noi siamo supportivi perché condividiamo la linea e la postura adottata. L’unica raccomandazione è evidenziare che in fase di implementazione l’intelligenza artificiale vive diverse fasi e quindi è molto importante differenziare le azioni rispetto ai diversi step dello sviluppo. Stessa cosa vale per i ruoli dei diversi soggetti che seguono la realizzazione, dallo sviluppatore a chi porta la tecnologia sul mercato. Non è detto che siano la stessa persona e, di conseguenza, i profili di responsabilità dovranno essere adeguati a questa differenza. 

In questo periodo si parla molto di Digital Market Acts, cioè una regolamentazione che mira a disciplinare la concorrenza nel mercato digitale e in particolare la condotta dei cosiddetti gatekeeper. E’ chiara nelle intenzioni dell’Europa la volontà di diventare una potenza regolatoria attraverso quello che viene definito ” Brussels effect” per cui quando una normativa europea è particolarmente significativa anche gli altri Paesi tenderanno ad allinearsi ai principi guida se vogliono avere a che fare con il mercato europeo. Ibm opera in oltre 150 Paesi del mondo. Come si muove in questo nuovo orizzonte normativo fatto di regolamentazioni molto diverse tra loro? 

Credo che il pacchetto sui servizi digitali (Dma e Dsa) e anche quello relativo alla protezione dei dati (Gdpr, Data Governance Act, Data Act) sia nel complesso un’iniziativa strategica dell’Unione Europea, cui viene riconosciuto un primato in termini di regolazione anche grazie al Gdpr che è diventato il golden standard in termini di tutela della privacy. Si tratta di una buona idea perché armonizzando le policy e le regole degli Stati membri l’Unione acquisisce una visione più condivisa, ma anche un peso maggiore nello scenario internazionale. Per Ibm non c’è un vero e proprio rischio di frammentazione perché siamo molto strutturati e ogni Paese nel quale operiamo segue i propri principi guida, con un terreno comune e con funzioni dedicate e preposte alla tutela dei diritti, come la privacy ad esempio. Ogni entità e unità di Ibm è autonoma e risponde alla legislazione del Paese di riferimento e segue le regole del mercato entro cui opera. Il nostro obiettivo è quello dell’armonizzazione perché un quadro normativo troppo composito certamente non aiuta.

In generale, credo che si tratti di interventi necessari che rispondo alle trasformazioni che investono la società che hanno introdotto nuove pratiche, prodotti e modalità di interazione. L’accelerazione dello sviluppo tecnologico porta con sé la necessità di tutelare i diritti e l’identità digitale dei cittadini. Il nostro, anche nel caso dei dati, è un approccio di precisione proprio perché riconosciamo il valore dei dati nell’erogazione di servizi personalizzati e come strumento di supporto al decision making e alla sicurezza. E’ un ambito che non può che essere affrontato con una visione di precision regulation proprio perché consente di capitalizzare il valore dei dati riconoscendo quali sono gli elementi differenzianti. 

Quanto al Dma, il target a cui si rivolge il provvedimento è chiaramente B2C, business to consumer. Parliamo di numeri molto ampi per cui è complesso regolamentare e tutelare il cittadino per evitare che ci sia un uso distorto della posizione di mercato da parte di piattaforme definite, appunto, gatekeeper. Anche in questo caso si tratta di una soluzione mirata per queste realtà che consente di stabilire le regole del gioco nel mercato digitale. 

Analogamente se pensiamo al Dsa, e quindi al provvedimento che intende disciplinare i contenuti on-line e i vari profili di responsabilità, c’è necessità di essere particolarmente attenti e avere un approccio mirato sui rischi relativi alla gestione dei contenuti e sui ruoli. Soprattutto bilanciando le aspettative dell’utente finale. Credo che si stiano facendo passi avanti e sicuramente la collaborazione con le aziende è importantissima per capire esattamente gli ambiti di impatto delle varie regolamentazioni. 

In materia di regolamentazione digitale oggi c’è il Trade and Technology Council (Ttc), un nuovo organismo che intende unire le due sponde dell’Atlantico e costruire un sistema di coordinamento e discussione continua tra Ue e Usa. Si tratta di due realtà che, come sappiamo, hanno avuto in questi anni non pochi problemi su alcuni dossier, come ad esempio la disciplina del trasferimento internazionale dei dati. Come vedi questa piattaforma? Riuscirà il Ttc a portare a casa dei risultati tangibili? 

Questo è sicuramente l’auspicio. Ma per costruire una reale collaborazione non basta il dialogo, bisogna infatti adeguare la discussione a certi comportamenti per scongiurare il rischio che organismi come il Ttc restino un po’ teorici. E’ un punto di partenza e un’occasione molto importante perché sancisce la collaborazione tra Europa e Stati Uniti sul fronte tecnologico e sulla valorizzazione delle eccellenze locali. Si tratta di una sinergia fondamentale per sostenere la crescita e lo sviluppo delle due entità e della tecnologia in generale. Questo è l’aspetto decisamente più concreto che fa ben sperare. 

Come Ibm sosteniamo il Ttc e ne condividiamo molti principi e valori, soprattutto per quel che riguarda l’approccio alla regolamentazione dello scambio dei dati. Trovo positiva anche l’idea di creare dei gruppi di lavoro che sono stati recentemente definiti per approfondire le diverse aree di discussione a livello di policy. Ibm raccomanda di focalizzarsi su due aree in particolare: la definizione di un framework per la ricerca in cui ci sia una reciprocità nell’accesso ai fondi proprio per sviluppare congiuntamente nuove soluzioni; e la necessità di istituire una sorta di board che possa potenziare il dialogo tra chi scriverà le norme e chi sta lavorando all’implementazione delle tecnologie o dei servizi che esse stesse andranno a regolare. 

Le aziende, in questo senso, possono portare un punto di vista differente importante  che, tra gli altri, consente di collocare nella giusta dimensione anche tutta la discussione sulla sovranità tecnologica. Un dibattito che, a nostro avviso, andrebbe ridefinito in un’ottica di open strategic autonomy per cui è legittimo riconoscere la volontà dell’Europa di essere leader nel digitale ma è anche giusto che questa leadership venga conseguita attraverso la collaborazione con partner esterni. Soggetti che, necessariamente, dovranno avere uno schema valoriale condiviso. Questo terreno comune è sicuramente il presupposto per una collaborazione stabile e duratura che può consentire di superare una visione che è ormai anacronistica di protezionismo tecnologico, un freno al potenziale delle innovazioni. 

Mettere a sistema forze, competenze e conoscenze è sicuramente la chiave. 

Ci consigli qualcuno da leggere o seguire?

Consiglio sicuramente il libro I Fratelli Wright di David McCullough che racconta di come la percezione dell’innovazione legata all’aereo sia stata guidata dalla volontà di capire come si vola. E’ una metafora che può essere di ispirazione per gli innovatori. Se invece preferite un’analisi più critica su sogni e incubi dell’età moderna suggerisco 21 lezioni per il XXI secolo di Yuval Noah Harari che tratta scenari decisamente apocalittici ma, secondo me, aiuta molto a pensare. Tra gli strumenti di aggiornamento e informazione sulle policy della tecnologia, infine, consiglio il nostro IBM Policy Lab che tratta temi molto in linea con la nostra chiacchierata di oggi. 

Exit mobile version