Skip to main content

Il futuro ha un cuore antico. Perché l’umanità può governare il cambiamento

Di Giovanni Lo Storto

Pubblichiamo un estratto del volume “Etica digitale. Verità, responsabilità e fiducia nell’era delle macchine intelligenti” a cura di Marta Bertolaso, direttore della Academy Digital Humanities presso Deep Learning Italia e professore di Logica e filosofia della scienza presso il Campus Bio-Medico di Roma, e Giovanni Lo Storto, direttore generale della Luiss Guido Carli

Fra meno di un decennio il “tempo di raddoppio”, quello cioè necessario agli abitanti del pianeta per generare una quantità di dati uguale a quella prodotta fino a quel momento, sarà passato, grazie anche a circa 150 miliardi di dispositivi connessi a Internet che si stima saranno diffusi nel mondo, dall’anno circa di oggi a dodici ore.

Una rivoluzione di questo tipo farà cambiare l’indice di sviluppo del pianeta con una impennata paragonabile a quella provocata dalla invenzione della macchina a vapore di Watt e l’accessibilità alla conoscenza con una forza incommensurabilmente superiore a quella dell’invenzione della stampa a caratteri mobili di Gutenberg.

Una rivoluzione di questo tipo, d’altra parte, colpirà l’intero pianeta nel vivo dei valori fondamentali: sostenibilità della vita, relazioni interpersonali, i modi di intendere e fare scienza, economia e finanza. Il mondo del lavoro sarà destinato a subire un duro impatto: se lo scenario delle intelligenze artificiali immaginate come cyborg divoratori di vite umane è una suggestione di gusto sci-fi, perversamente affascinante ma del tutto implausibile, numerosi analisti provenienti da differenti campi del sapere ci stanno mettendo in guardia sulla reale natura del rischio che l’utilizzo sempre più vasto dei sistemi IA rappresenta.

Gli algoritmi in grado di apprendere da soli al punto da prevedere con impressionante precisione i comportamenti umani – sono le “macchine predittive” di cui hanno parlato Agrawal, Gans e Goldfarb – possono essere un terribile strumento di controllo a scopo di lucro (nel “capitalismo della sorveglianza” di Shoshana Zuboff) o generatori di disgregazione e insicurezza specie nei più giovani, fino a mettere seriamente a rischio la tenuta dei sistemi democratici, generando isolamento, radicalismo e polarizzazione politica, favorendo la disuguaglianza economica, etnica e di genere.

È questo il difficile contesto nel quale viviamo e operiamo – studiando, lavorando, disperando a volte che anni più sereni possano davvero attendere i nostri bambini, i quali, secondo una stima ma diventata popolare, finiranno in gran parte (65%) e tra non più di dieci anni a svolgere lavori che ancora non esistono nel giorno in cui iniziano la scuola primaria.

I nostri bambini, e noi adulti con loro, corrono anche un altro tipo di rischio, più insidioso: il filosofo francese Eric Sadin ritiene che il più grave pericolo che stiamo correndo – giacché egli la ritiene una strada già intrapresa – è quello di delegare alle intelligenze “meccaniche” una superiorità nel discernere il vero dal falso: la precisione, la – letteralmente – disumana capacità di elaborare immense quantità di dati in pochissimo tempo rischiano di essere scambiate, da noi semplici “esseri evolutivi”, per superiori doti morali.

La relazione tra dati, algoritmi e verità è stata riscontrata anche da studiosi di campi piuttosto differenti e, come spesso capita a quanti si occupano di scienze aziendali o di diritto, può essere vista sotto una luce, se non più ottimistica, almeno più neutra.

Lo scrittore ed ex analista di Google Seth Stephens-Davidowitz ha mostrato come il grande potere dei big data risieda in realtà nella tendenza umana a relazionarsi a una semplice interfaccia come il motore di ricerca più noto al mondo come se si trattasse di un oracolo capace di indicare la verità.

Tema senz’altro affascinante, ma meno preoccupante rispetto al retrogusto apocalittico di Sadin: in fondo, siamo ancora noi i padroni delle nostre azioni. Conoscere anche solo superficialmente i meccanismi del nostro modo di relazionarci al mondo può aiutarci senza il minimo dubbio a non guardare lo schermo del computer come la crudele regina della fiaba di Biancaneve guardava il suo specchio.

Il giurista statunitense Frank Pasquale, tra i maggiori esperti al mondo sull’argomento, ha più volte esposto la tesi che il problema del web e degli algoritmi in particolare stia nell’opacità del loro funzionamento più che in uno “strapotere” sovrumano: certo, la maggioranza di noi non sa nemmeno come funziona il motore di un’automobile moderna, ma quantomeno possiamo capire se è nelle condizioni di portarci a destinazione; e se non lo è, un meccanico qualsiasi potrà aiutarci.

Molte architetture dei sistemi digitali, invece, si basano sulla segretezza assoluta. Secondo Pasquale, sono il diritto, le leggi e i regolamenti che possono aiutare la nostra società in un più corretto utilizzo delle nuove tecnologie.

D’altra parte, che il progresso tecnologico rappresenti una grandissima chance di crescita credo sia difficilmente discutibile e diversi economisti hanno mostrato come, nella storia internazionale o nazionale, siano la corruzione e lo sfruttamento sregolato a rendere un’innovazione buona o cattiva. Le regole, dunque, convengono.

Ma quando diciamo che c’è bisogno di un’etica per l’era digitale, stiamo forse dicendo che abbiamo bisogno di nuove leggi, di diversa e forse maggiore regolamentazione? In parte, senz’altro. Ma non è tutto: l’etica è, diremmo in modo un po’ scolastico, quella branca della filosofia che si occupa del comportamento umano.

In poche parole, facciamo etica quando ragioniamo su noi stessi, quando osserviamo il nostro comportamento e cerchiamo di capire dove sbagliamo, come indirizzarlo o come migliorarci. In un momento di tale, esponenziale sviluppo, nel quale il “rumore di fondo” dei dati d’ogni tipo che continuamente ci bombardano da ogni parte è assordante, può risultare molto complicato capire anche solo da che parte iniziare la propria riflessione, come fare a fermarci a osservare.

Parlando di apertura mentale, mi permetto di spendere qualche riga di riflessione su un argomento che professionalmente mi è caro, l’istruzione a livello universitario. L’università è il luogo nel quale conoscenza, sapere e competenza trovano la loro sede tradizionale. L’università ha purtroppo rischiato troppe volte di diventare, come ebbe a dire il grande filosofo Jerry Fodor, “quel luogo dove le farfalle diventano bruchi”.

In toni simili, anzi persino più duri, si è espresso Ken Robinson parlando di scuola, che spesso “uccide la creatività dei bambini”. I bambini sono allievi naturali, hanno enormi talenti e noi li sprechiamo, senza pietà. È un risultato notevole riuscire a spegnere una particolare abilità, o reprimerla.

Vincent Van Gogh venne talmente frustrato dai ripetuti giudizi di mediocrità che riceveva da maestri e insegnanti, a volte irritati dal suo ostinarsi a cercare una via eterodossa al disegno, che si convinse di essere inadatto all’arte e cercò per tutta la vita il mestiere che facesse per lui, risultando sempre mediocre.

Due anni prima della morte volle riprovare a dipingere, e portò il cavalletto in spiaggia: irritato dal forte vento che continuava a sollevare cumuli di sabbia, iniziò a spremere i tubetti di colore direttamente sulla tela. Quella notte non riuscì a dormire e capì di aver finalmente trovato la tecnica per tirar fuori quel “qualcosa” che sentiva di aver dentro senza riuscire a capire che cosa fosse, e di cui scriveva nelle angosciate lettere al fratello.

×

Iscriviti alla newsletter