Skip to main content

Oltre ChatGpt, l’Intelligenza artificiale entrerà nel nostro cervello. Parla Guido Scorza

Intelligenza artificiale, privacy, copyright, trasferimento di dati tra Europa e Stati Uniti, Cloud act e neuroverso. Con Guido Scorza, componente del Garante per la protezione dei dati personali, abbiamo parlato delle questioni più “calde” all’incrocio tra vita privata e tecnologie di frontiera. L’intervista, registrata negli Utopia Studios, è disponibile sia in video sia in questa trascrizione

Il Garante Italiano della Privacy è diventato famoso in tutto il mondo per il provvedimento che non bloccava ChatGpt come dicevano i titoli (ma noi giornalisti dobbiamo fare i titoli), ma chiedeva a OpenAI di allinearsi a un minimo di regole sul trattamento dei dati. La società ha poi aggiustato un po’ di cose e ha rimesso la sua piattaforma online nel nostro Paese. Che fine fanno oggi i nostri dati quando usiamo l’Intelligenza artificiale generativa?

Intanto direi che siamo più prossimi al fischio d’inizio che al triplo fischio finale di una partita. Si è conclusa, con OpenAi, la fase dell’urgenza: gli avevamo detto che quello che stavamo vedendo era lontano da quello che la disciplina sulla privacy europea suggerisce, e che una società che voglia erogare quel genere di servizio deve rispettare. È iniziata immediatamente un’interlocuzione con ChatGpt, come si ricordava prima, e abbiamo adottato un secondo provvedimento d’urgenza, con una serie di prescrizioni, che non mettevano tutto a posto ma tamponavano l’emergenza. OpenAI si è impegnato a farlo con delle scadenze, l’ultima delle quali è quella relativa alla age verification, che arriverà a fine settembre, e quindi ha riaperto il servizio in Italia. Pende di fronte all’autorità italiana in questo momento il procedimento di merito, per capire se OpenAI avesse violato, e in che termini, i diritti relativi alla privacy di persone che vivono in Italia. Quel procedimento si concluderà come si concludono tutti i procedimenti, cioè con un’archiviazione parziale o totale, con una sanzione, con dei provvedimenti correttivi con cui dire a OpenAI di fare di più e di far meglio per rispettare le regole.

Ci sono altri garanti che indagano su questi sistemi in Europa?

Le stesse perplessità che noi abbiamo sollevato in quell’occasione sono poi state sollevate da una serie di altre autorità. Se ne è parlato in senso allo European Data Protection Board, il comitato europeo che raggruppa tutti i garanti dei dati personali, e ha istituito una task force che non gestirà le singole istruttorie nazionali ma si cercherà di identificare un minimo comun denominatore dal punto di vista dei principi cui dovranno ispirarsi le singole autorità nazionali nel gestire i procedimenti che hanno davanti.

È anche accaduto che altre autorità di protezione dei dati, europee o non europee, abbiano aperto autonome istruttorie nei confronti di Open AI: è accaduto in Francia, in Spagna, in Canada e in altri paesi a giro per il mondo, confermando che i problemi sostanzialmente sono quelli. Dobbiamo capire se e in che termini queste intelligenze artificiali possono essere considerate compatibili con la disciplina europea sulla privacy. E se la risposta fosse no, avremmo un problema ben più grande rispetto a quello che si è affrontato nel procedimento con OpenAI.

Qual è il problema principale?

Il tema che svetta è: quale base giuridica consente a qualcuno di raccogliere, facendo scraping cioè raccogliendo a strascico, una massa enorme di dati per addestrare gli algoritmi? Facendo semplice quello che semplice non è, di potrebbe essere una sola base giuridica nel Gdpr, ed è il cosiddetto legittimo interesse. Un’azienda può trattare dati personali, anche per ragioni commerciali, perché ha un interesse legittimo, considerabile prevalente rispetto al diritto alla privacy. La persona interessata ha sempre il diritto di alzare la mano e dire ora basta, cioè di esercitare il diritto d’opposizione. Oggettivamente, il legittimo interesse, quando è stato pensato e portato all’interno del Gdpr, non è stato concepito per questo tipo di casi. Quindi il più grande dei quesiti che non noi in Italia, ma tutte le autorità di protezione dei dati in Europa ora devono affrontare, speriamo con una posizione comune, è se questo legittimo interesse va bene, e se va bene a quali condizioni.

Senza voler anticipare le decisioni che verranno, se anche ci si trovasse d’accordo, dovremmo comunque accordarci su un fatto: almeno un obbligo di informare tutti gli interessati che i loro dati personali potrebbero essere portati in pancia a un server da qualche parte in giro per il mondo – per poi essere dati in pasto a degli algoritmi – è indispensabile. Nel caso di OpenAI questo avvertimento è mancato, come in tanti altri casi analoghi.

La questione diventa molto delicata perché questi sistemi garantiscono i risultati migliori se le nostre conversazioni vengono registrate e archiviate, perché addestrano la macchina a conoscerci meglio. E diversamente da un motore di ricerca, che ci restituisce una serie di risultati, c’è un botta e risposta, con i chatbot che puntano a creare empatia e avere le nostre confidenze. Dal lato positivo, potremo avere degli assistenti personali IA che pagano le multe, negoziano un risarcimento con la compagnia aerea e prenotano il ristorante al posto nostro. Dal lato negativo, sapranno tutto di noi, in modo più intimo e privato che mai. Cosa succede se questi dati “sensibilissimi” vengono rubati? O venduti ad aziende ed assicurazioni, per profilarci in modo molto più avanzato di quando mettiamo un like a una gelateria o ci geolocalizziamo al museo?

Il punto di partenza è sicuramente questo: con i chatbot ci si apre molto di più che in un “monologo” o interrogando in maniera unidirezionale un servizio digitale utile quanto si vuole. E il punto di arrivo è quello che si rappresentava prima. Non sapremmo resistere alla semplicità: tutto quello che utilizziamo nell’universo digitale ci ha essenzialmente conquistato proprio con la semplificandoci la vita. Per cui io credo che oggettivamente gli unici antidoti di cui disponiamo e disporremo in futuro ruotano intorno a due parole: consapevolezza e autodeterminazione. Il segreto sta nel sapere, nel capire e nell’essere consapevoli di quanto e cosa condividiamo e con chi, e nell’avere ogni volta la possibilità nella maniera più puntuale possibile di decidere se condividere o meno informazioni che ci riguardano.

Non credo quindi a regole universali che dicano a tutti ciò che si può raccogliere o no, ciò che si può condividere o no perché la forza, che è anche la complessità, del diritto alla privacy è di consegnare a ciascuno il diritto di tracciare il diritto tra la sfera pubblica, quella privata e quella segreta della nostra esistenza. Il cardine è che ciascuno scelga dopo aver compreso appieno quali sono le implicazioni. E qui le implicazioni sono certamente il rischio che consegnando parte di noi stessi ad una società commerciale poi in un’occasione qualsiasi di incidente di quella società ciò che era nato per restare privato, o al limite di essere condiviso tra noi e gli algoritmi IA, diventi di dominio pubblico.

Ma quello che forse mi preoccupa di più è che quando si cede conoscenza, si cedono informazioni personali, quando si consente a qualcuno o a qualcosa di conoscerci così bene di fatto si rinuncia a un po’ della nostra libertà e del nostro diritto di scegliere, che appartiene anche all’esperienza quotidiana di ciascuno di noi. Se qualcuno inizia a conoscerti molto bene sa come prenderti, sa come portarti a rispondere data una domanda come lui vorrebbe che tu rispondessi, quale che sia la domanda, che si tratti di affari personali, professionali, politici, culturali, commerciali. Aprirci così tanto nei confronti di qualcuno o di qualcosa significa porre qualcuno o qualcosa nella condizione di comprimere il nostro diritto all’autodeterminazione. Scelte che oggi sono normalmente quelle di consumo, ma un domani di carattere educativo o politico.

Lei ha scritto un libro che si chiama “Neuroverso”, che analizza la capacità della tecnologia non solo di leggere le nostre menti ma anche di modulare quello che c’è dentro. Elon Musk con Neuralink sta collegando i nostri cervelli a una macchina, per leggere questi impulsi e trasformarli in dati che si possono analizzare con un computer. Quanto crede che sia lontano il momento in cui questo passaggio non sarà solo in “download” ma anche in “upload”? Potremo imparare cose senza accorgerci, o essere manipolati nelle nostre scelte e nelle nostre opinioni?

Oggi uno dei mestieri in assoluto più difficili è quello dello scrittore di romanzi di fantascienza, nel senso che è davvero difficile immaginare qualcosa senza correre il rischio che prima dell’uscita del libro non sia già realtà. Non è diverso il caso delle neuroscienze e delle neurotecnologie. La cosa più affascinante, ma che le rende anche molto comuni alle questioni dell’IA, è che in realtà stiamo parlando sempre di soluzioni che sono neutre rispetto al bene o al male. Neuroscienze e neurotecnologie con il loro progresso stanno letteralmente riconsegnando a persone che le avevano perse speranze di una vita normale, come nel caso di paraplegici che ritrovano la possibilità di camminare, o di persone in stato vegetativo che ritrovano al possibilità di comunicare con i loro affetti anche se in forma diversa, e naturalmente i miracoli (perché continueremo a chiamarli così ancora a lungo) in ambito medico e clinico sono sostanzialmente sterminati.

Sarebbe un sacrilegio bollarle come pericolose, sono straordinariamente utili proprio come lo è l’intelligenza artificiale. Però neuroscienze e neurotecnologie hanno sicuramente in comune una questione: per funzionare devono dischiudere i segreti del cervello umano, i nostri pensieri inespressi, che sono l’ultima frontiera certa del diritto alla privacy, l’ultima roccaforte in cui possiamo sentirci al sicuro; nessuno può sapere quello che ho pensato ma non ho detto e condiviso. Questo non è già più vero, almeno in relazione a pensieri elementari (sì o no, destra o sinistra) nel senso che siamo già esposti alla lettura del cervello dall’esterno.

E se neuroscienze e neurotecnologie escono dall’ambito clinico, per finire in quello commerciale?

Al di là delle regole e delle leggi esiste naturalmente un’autodisciplina e un’etica dei medici e degli scienziati che lavorano, e c’è un fine giusto al di sopra di ogni sospetto, quello della salute. Ma dobbiamo stare attenti a cosa ne vorrà fare il mercato: esplorare il cervello umano e sapere cosa mi piace o non mi piace, non perché me lo hai chiesto ma perché me lo hai letto nel pensiero inespresso è il sogno proibito di chiunque faccia marketing, che sia commerciale o politico.

Poter sovrascrivere quel pensiero, che è una frontiera su cui già oggi si lavora intensamente e ormai prossima a diventare realtà, significa evidentemente poter far cambiare idea a qualcuno non perché lo hai convinto della bontà della tua tesi ma semplicemente perché hai cancellato la sua posizione come su un foglio di carta e l’hai sostituita con la tua. C’è un movimento importante che si sta chiedendo se servano dei nuovi neurodiritti, un complesso nuovo di regole capaci di governare un ambito nel quale ancora non ci eravamo spinti. Può bastare estendere le regole che abbiamo? Possiamo solo sperare che questa cosiddetta “privacy mentale” sopravviva per un po’, perché poi sappiamo che tutti i traguardi sono lì per essere superati.

Un tema che abbiamo affrontato spesso su Formiche.net è quello del trasferimento dei dati tra Europa e Usa. In quest’autostrada passano il grosso dei dati personali, delle aziende, dei governi. Ci sono state due sentenze della Corte di Giustizia dell’Unione Europea che hanno invalidato le regole precedenti, ora siamo a un nuovo punto di svolta, o almeno ci eravamo già un anno fa, quando Joe Biden e Ursula von der Leyen hanno trovato un accordo politico, al quale è seguito un executive order del presidente americano. A che punto siamo? L’Unione europea si è un po’ incagliata in questo processo? Eppure cittadini e aziende vogliono sapere con certezza come si muovono i loro dati, senza timore di usare i servizi offerti dalle società americane.

La partita è straordinariamente complicata, quindi è difficile persino dire ci stiamo mettendo troppo o troppo poco. Il problema che i giudici della corte di Giustizia Ue hanno sollevato a più riprese è un problema legato al disallineamento cultural-giuridico di due ordinamenti, quello europeo e quello americano, ed è come tale un problema che può essere risolto solo dall’interno, riscrivendo delle leggi di qua e di là, leggi che sono custodi di principi culturali nei quali i due continenti si riconoscono.

Si sta chiedendo agli Usa, quelli del post-11 settembre, di rivedere quelle che a torto o a ragione sono diventate regole incise nel patrimonio cromosomico di quel paese, per cui nel nome della sicurezza nazionale si deve poter accedere ai dati. Dopo gli incontri tra Biden e von der Leyen, e l’executive order lo testimonia, ci sono prove di una sincera volontà di riaprire il transito trasparente e lecito dei dati tra Europa e Usa. Però i garanti europei, riuniti nel Board, e della commissione per i diritti e le libertà del Parlamento Europeo credono che quanto fatto non sia abbastanza. L’executive order è l’unica strada che Biden aveva davanti ma non corrisponde esattamente a una legge, interviene sul livello amministrativo più che su quello legislativo, e anche a prescindere dalla forma, anche nel merito si costruisce un sistema di tutela che assomiglia a quello europeo, ma naturalmente non è sovrapponibile a esso.

Tanto per fare un esempio, non si immagina la costituzione di un’autorità amministrativa indipendente che si occupi di privacy negli Usa, ma si immagina piuttosto una corte speciale i cui componenti sarebbero comunque eletti dal Dipartimento della Giustizia. Dei punti di distanza restano, per quanto sia apprezzabile quello che è stato fatto.

Cosa dovrebbe accadere in Europa?

Dovrebbe accadere che ci si accontenti o meno di ciò che gli Usa hanno messo sul tavolo nel tentativo di risolvere questo problema, e la decisione sta sostanzialmente alla Commissione Europea, né il parere dei garanti né quello del parlamento sono vincolanti. Io credo che internet sia nata per essere globale e che l’obiettivo di tutti debba essere tornare lì, all’internet senza frontiere dove i dati possono essere scambiati. È ovvio che, perché questo accada, serve un minimo comun denominatore dal punto di vista delle regole, e forse non ci siamo ancora. L’auspicio è che nei prossimi mesi una nuova decisione di adeguatezza possa essere varata dalla Commissione Europea, e che questa nuova decisione non faccia la fine delle precedenti due. Che ci sia una nuova sentenza negativa non sarebbe una vittoria per nessuno. Certo che se così non sarà, da autorità di protezione dei dati dovremmo tornare ad interrogarci su cosa fare di un transito di dati che nei fatti non si è mai davvero interrotto. Un tema finito un po’ all’angolo perché l’accordo sembrava imminente.

Lei dice di tornare a un internet aperto e libero, ma è in corso una balcanizzazione. In Russia dopo l’invasione dell’Ucraina, in Cina da molti anni. Oggi un’app come TikTok, controllata da una società cinese, promette di localizzare i dati degli americani in America (Project Texas) e degli europei in Europa (Project Clover, come il quadrifoglio irlandese). Lo stesso hanno fatto le aziende americane. Ma se con gli Stati Uniti, anche attraverso il Ttc, lo scambio e il confronto è continuo, con la Cina questo discorso non esiste, non ci sono le garanzie giurisdizionali del Cloud Act quando un’autorità pubblica richiede l’accesso a dati di cittadini europei. Ma la localizzazione è sufficiente?

Dal mio punto di vista, se discutiamo di una localizzazione che dovrebbe essere vaccino rispetto alle leggi a cui sono soggette le società che controllano i dati e li trattano, ecco, la localizazione non è un elemento oggettivamente rilevante. In virtù delle regole vigenti, se la Nsa americana bussa alla porta di una delle Big Tech per accedere ai dati di taluni europei conservati in Europa, la Big Tech in questione non potrebbe limitarsi a rispondere “non ho i dati con me, su territorio americano, li ho in Europa e non posso darteli”, verrebbe invitata piuttosto rapidamente a mettere a disposizione questi dati.

Però verrebbe invitata a farlo secondo il due process of law, una serie di garanzie giurisidizionali previste dalla legge Usa (richiesta al Dipartimento di Giustizia, autorizzazione del giudice, possibili impugnazioni e dinieghi).

Certo, la società americana risponde alle leggi americane ovunque si trovino i dati che sta trattando, e verosimilmente la società cinese o controllata da società cinesi risponde alle leggi cinesi a prescindere da dove parcheggi tecnologicamente o fisicamente i dati. Quindi se parliamo della prova di resistenza della localizzazione rispetto a leggi di questo o quel paese che autorizzino governi più o meno ficcanaso a mettere le loro mani su quei dati, io credo tenga poco. Certo, la localizzazione produce risultati altri, cioè nella dimensione fisica e commerciale pone i dati più vicino alle persone alle quali si riferiscono. Non si può dire che questo non abbia valore, ma si deve essere consapevoli, per ritornare alla questione affrontata sinora delle relazioni Usa-Ue, che questa non è la risposta a quel problema, se lo fosse non staremmo discutendo da tre anni di cosa dovrebbe accadere o non accadere, avremmo semplicemente detto a tutte le Big Tech (che verosimilmente avrebbero anche accettato) che i dati dei cittadini europei basta localizzarli in Europa.

Ma la differenza, credo, è che in Europa non ci sono società tech così grandi e diffuse. Se ci fossero, gli Stati europei adotterebbero (e molti già lo fanno) regole simili al Cloud Act sull’accesso ai dati una volta richiesti da un pubblico ministero o da un’agenzia di intelligence.

Sicuramente sì, anche se il regolamento, il Gdpr e il suo fratello applicabile ai trattamenti di dati personali per finalità di giustizia, da questo punto di vista puntellano in maniera molto più rigorosa rispetto a quanto non accada nell’ordinamento Usa il diritto di accesso. Qui in gioco è soprattutto il diritto di accesso massivo, quando si cercano dati di grandi gruppi di utenti a scopo di intelligence, non il singolo caso in cui si cerca un singolo elemento di prova. Su questo punto c’è ancora diffidenza da parte europea.


×

Iscriviti alla newsletter