“Nei secoli scorsi abbiamo assistito a grandi violazioni dei diritti umani. Nel millennio che ora viviamo potrebbero essere le profilazioni di massa ad aprire nuove pagine altrettanto poco brillanti”.
Ad esserne convinto è Padre Paolo Benanti, francescano, docente della Pontificia Università Gregoriana di Roma e tra i massimi esperti di bioetica, etica delle tecnologie e human adaptation, che in una conversazione con Formiche.net analizza le cause, le conseguenze e le possibili soluzioni della vicenda del momento, il caso Facebook-Cambridge Analytica.
Padre Benanti, perché questo socialgate, come è stato definito, è così rilevante?
Perché assistiamo da tempo all’esplosione dei colossi dell’online. Se guardiamo le aziende con la maggiore capitalizzazione a Wall Street, ai primi cinque posti troviamo giganti del web con un potere talvolta più grande di alcuni Stati. Dunque quel che accade non dovrebbe stupirci. E invece questo caso è differente.
In che cosa?
La novità, se così la possiamo chiamare, è nel modello di business di Facebook. Mentre gli altri sono colossi virtuali che vendono o promuovono prodotti reali, il social network fondato da Mark Zuckerberg è il primo colosso della Rete di grande successo ad avere un modello di impresa solo digitale.
E ciò che cosa comporta?
Che siamo noi il suo prodotto, o meglio, lo sono i nostri dati. E se è così, si genera una tensione enorme tra il valore che noi abbiamo come ‘prodotto’ e quello che abbiamo come persone. Se noi diventiamo prodotti assistiamo ad una tensione etica, perché i prodotti vengono usati per ottenerne il massimo rendimento possibile. Le persone, invece, non solo non vanno usate, ma vanno approcciate con dignità e rispetto. La domanda che sorge è dunque: nella moderna società iper-connessa, essere persone è ancora condizione per ambire e rivendicare diritti umani o siamo diventati merce digitale? Come ci si può tutelare da questo pericolo?
Crede che esista una correlazione tra etica e sicurezza, in questo caso informatica? La prima può rafforzare la seconda?
Sì. Le faccio un esempio. Quando noi acconsentiamo a comunicare dati a una società, lo facciamo anche in relazione all’utilizzo che poi ne sarà fatto. La questione CA nasce dal fatto che questo materiale sia stato utilizzato per fini diversi da quelli dichiarati inizialmente, ovvero per profilazioni di natura politica. Se non c’è una dinamica etica, anche nella gestione dei dati, questi ultimi potrebbero essere usati per altro, anche per cose che mettono a repentaglio la nostra sicurezza.
Un’istituzione così antica come la Chiesa Cattolica ripone grandissima attenzione a dinamiche innovative come quelle del digitale. Le iniziative sono tante e diverse: vengono in mente, tra le tante, quelle del Cortile dei Gentili, del Sinodo dei giovani, o il recente VHacks. Da cosa nasce questo interesse?
Dopo la nascita del ‘continente’ digitale, la Santa Sede si sta muovendo per trovare forme per abitarlo e capire come il Vangelo può essere portato anche nel cyber spazio, un posto decisamente nuovo ma caratterizzato dai problemi e dai bisogni di sempre.
Come introdurre l’elemento etico nell’uso dei dati personali in un mondo, come quello commerciale, orientato – anche in campo digitale – al massimo profitto?
Ci sono al momento tre modelli dominanti. Il primo è quello americano, cosiddetto ‘market driven’, che prevede un accordo tra il colosso di turno e il singolo individuo. Il secondo è quello cinese, nel quale è l’interesse di Stato a guidare tutto. Il terzo è quello del Vecchio continente che ritroviamo nella General Data Protection Regulation (Gdpr). Al momento ritengo quello europeo il migliore, perché è il miglior interprete di quella tradizionale attenzione ai diritti che ha caratterizzato l’Europa.
E se a prevalere fossero altre logiche?
Il rischio sarebbe quello di passare dall’essere ‘individuo’, parola latina che segnala l’indivisibilità di una persona dagli altri elementi di una società coesa, a divenire ‘dividuo’, ovvero isolati in balia di colossi tecnologici con un potere enormemente più grande del nostro.