Il professor Gambino propone di creare un “foglio rosa”, un sistema di identificazione che imponga agli adulti di affiancare i minori nell’uso degli smartphone. Perché il problema non sono le app come Tiktok, i cui contenuti possono essere cancellati, ma nasce nel momento in cui si abbandona uno smartphone in mano a bimbi di 8 anni

Il blocco di TikTok in Italia disposto dal Garante per la protezione dei dati personali ha scatenato un acceso dibattito sul tema minori e social network, di cui finora la politica si è piuttosto disinteressata. Abbiamo parlato con Alberto Gambino, ordinario di diritto privato dell’Università Europea di Roma e giurista che da anni si occupa del confine tra etica, diritto e tecnologia.

Professore, è giusto bloccare l’app dopo la morte di una bimba di 10 anni? Oggi c’è la notizia di un altro bambino, di nove anni, soffocato dopo essersi avvolto un filo intorno al collo, e c’è chi parla della stessa “challenge” su TikTok

Bloccare completamente un social network non è mai la risposta giusta. Bisogna fare un grande lavoro di rimozione dei contenuti inappropriati, illegali, violenti. Ma serve uno sforzo normativo a monte, una rivoluzione nel nostro approccio con la tecnologia.

Cosa intende per “a monte”?

A mio avviso tutto si gioca sulla fase di acquisto del device, del telefono. Bisogna agire sul piano economico prima ancora che giuridico o etico, ed è l’unico momento in cui si può costruire un filtro che impedisca un uso distorto del mezzo. Pensi un momento cosa succede oggi: il genitore compra lo smartphone al figlio – fornendo un documento di identità per registrare la sim card e dunque garantendo una forma di controllo – poi glielo consegna e scatta il tana libera tutti. Finisce qualunque obbligo di responsabilizzazione.

Di che età stiamo parlando?

Ormai si danno smartphone in mano a bimbi di 7-8 anni, quando si è fortunati di 12-13. La legge parla di un minimo di 13 anni per accedere a molte app, ma sappiamo tutti che un adolescente è in grado di aggirare anche i sistemi di controllo che (alcuni) genitori preoccupati installano sui telefoni.

Cosa propone per introdurre un controllo sui contenuti cui vengono esposti i bambini?

Inutile mettere il bavaglio ai social, quando si accede ai social i buoi sono già scappati. È necessario che l’adulto nelle prime fasi di uso di un telefono, sia accanto al minore. Abbiamo visto con Spid, cashback e nuovi sistemi di pagamento che gli italiani sono in grado di usare sistemi di controllo dell’identità molto avanzati (verifica a due fattori, impronte digitali, riconoscimento del volto o dell’iride). Per accedere a uno smartphone, insomma, bisogna che ci sia sempre una figura responsabile accanto al bimbo.

Una specie di foglio rosa

Esatto. Noi consideriamo l’auto uno strumento pericoloso e prevediamo che all’inizio si possa guidare solo avendo accanto un adulto con almeno 10 anni di patente. E per i primi tre anni un neopatentato non può mettersi al volante di veicoli con motori troppo potenti né superare certi limiti di velocità. Anche il telefono può essere pericoloso, per sé e per gli altri. Per quanto vogliamo raccontarcela, contenuti violenti e scioccanti sono sempre dietro l’angolo. Bimbi di 8 anni, ma anche adolescenti di 13, non sono attrezzati per affrontarli. L’idea è accompagnare il minore in un processo graduale. Che sarà più lungo per bimbi più piccoli, più breve per chi è più grande.

Ma si riuscirà a convincere genitori e figli?

Il mio non è un discorso paternalistico, etico, ma punta alla filiera commerciale. Bisogna responsabilizzare produttori, operatori telefonici e distributori, che devono creare una piattaforma di settore, insieme alle autorità, che permetta di esercitare questa nuova forma di “tutoraggio”. In ballo c’è la salute dei nostri figli.

A che livello si può prevedere una normativa?

La dimensione non può che essere europea. Oltre il livello europeo al momento non si riesce ad andare, anche se l’obiettivo finale dovrà essere un’authority sovranazionale, magari in ambito Onu, con dentro il regolatore, gli enti di ricerca e anche le grandi aziende del settore. Al di sotto dell’Unione Europea non servirebbe a niente e ci sarebbero dei problemi di armonizzazione del diritto.

Si può partire dalle due direttive Digital Services Act e Digital Markets Act, presentate a dicembre?

Certo, prevedono già degli strumenti interessanti, a partire dal board che a livello centrale dovrà omogeneizzare e coordinare il lavoro delle autorità nazionali. Per stimolare una riforma serve però una guida politica, che oggi è debole per la debolezza degli Stati membri.

Le piattaforme non possono regolarsi da sole, magari cedendo alla pressione civile e politica, senza la creazione di nuove leggi?

È molto difficile non prevedere un intervento pubblico e sperare nell’autoregolazione. Le faccio un esempio. L’utero in affitto è vietato in Italia ma i motori di ricerca e i social indicizzano le pubblicità e i siti (stranieri) che lo promuovono. Sul tema abbiamo presentato esposti in procura, coinvolto l’ordine dei medici, c’è stata una denuncia di Federconsumatori, abbiamo fatto segnalazioni ad AgCom e Agcm, persino mandato una lettera a Conte. Dopo due mesi le pubblicità sono ancora lì. E le multinazionali del settore non hanno fatto nulla per uscire dall’illegalità.

E con Tiktok come finirà?

La strada da percorrere, anche per le altre piattaforme, è l’oscuramento selettivo, molto difficile e costoso, ma non possiamo pensare alla chiusura di tutte le app che in un dato momento storico ospitano contenuti illegali. Non è giusto neanche chiudere l’account Twitter di Donald Trump. Rimuovere il singolo post dannoso, certo, ma lo “spegnimento” del presidente degli Stati Uniti è un pericoloso precedente.

Ci sono dei casi da cui prendere esempio?

Quello del diritto d’autore. l’AgCom si è “presa” la competenza che fino a quel momento era del giudice ordinario, con processi che potevano durare decenni. Una forzatura che è arrivata fino alla Consulta e che però ha retto alla prova di costituzionalità. Da allora abbiamo assistito all’oscuramento, in tempi rapidi, di siti di streaming e file sharing illegale. Poi ovviamente deve restare la possibilità di ricorrere – con una corsia preferenziale – anche al tribunale. Ma finché non nasce un’autorità transnazionale con poteri di enforcement e competenza specializzata, il giudice resta quello di casa nostra.

Quindi manteniamo il limite dei 13 anni per accedere alle app più diffuse?

Io abbandonerei questo formalismo. Anche gli adulti possono cadere nelle trappole di cui sono pieni gli smartphone. Non credo che a 13 anni di colpo un ragazzino sia in grado di navigare liberamente tra siti per adulti con immagini estreme o violente. Questa impostazione purtroppo è figlia di un certo puritanesimo di stampo americano: in superficie, certi siti non sono visibili, ma se poi con la tua autodeterminazione vuoi entrare in un meccanismo in cui tutto è lecito e finisci nell’abisso, sono affari tuoi. Il problema è che manca qualunque gradualità, si passa dal bianco al nero.

Servirebbe un po’ di grigio?

La zona grigia è dove si responsabilizza la società, gli operatori economici, i genitori. È facile imporre un’età per legge: prima c’è l’illecito, dopo vale tutto. Ma quanti ventenni sono finiti nella rete del revenge porn? Erano liberi di condividere materiale privatissimo, ma non erano coscienti delle conseguenze che questo avrebbe avuto. Serve l’intervento dell’autorità pubblica a difesa dei soggetti più deboli, indipendentemente dall’età.

Lei oggi presenta il libro “L’intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà” di Guido Scorza e Alessandro Longo e lancia la nuova edizione del Master in Intelligenza artificiale dell’Università Europea di Roma. In questo campo riusciremo a creare una regolamentazione efficace prima che i buoi siano scappati?

Il nostro obiettivo, con l’evento di oggi e con il master, è far capire che il tema non si può affrontare a pezzetti, tenendo separati giuristi, sociologi, economisti, ingegneri, filosofi. Serve un confronto tra vari saperi e discipline. È anche un tema di metodo, bisogna parlare lo stesso linguaggio, e già questo è difficilissimo. Ma se iniziamo ad affrontare il tema adesso, forse riusciremo a evitare quello che è successo con i social.

Condividi tramite