L’IA non avrà il primato sull’umanità quanto meno ancora assai a lungo. Eppure, anche così, riflettere sul tema porta l’attenzione sui carattere essenziale del convivere umano. Affrontare le sfide del tempo tramite l’evoluzione. Il che significa non cedere mai all’antica illusione di sognare l’eterno e di prevedere il futuro, pensando di avere sempre le risposte per tutte le domande. Il commento di Raffaello Morelli
In questo articolo svolgo una rapida riflessione su un dibattito che circola parecchio ed in termini assai confusi: lo sviluppo prorompente dell’Intelligenza Artificiale costituisce una minaccia concreta per il primato della vita umana?
Inizio da qualcosa di ovvio per un liberale. I cambiamenti indotti dall’IA sono essi stessi un prodotto dell’attività umana non in grado di riprodurre davvero la vita e quindi non possono essere una minaccia se non per i conservatori in quanto tali ostili ai cambiamenti (ma anche i non liberali finiscono sulla medesima linea). Di fatti l’IA si configura finora solo come un meccanismo capace di elaborare dati in quantità enormi e a velocità inarrivabili dagli umani (con la tecnologia Llm, large language models), però senza mai esercitare sui dati quello spirito critico che degli umani è la comprovata caratteristica evolutiva determinante. Appunto, l’IA non riproduce davvero la vita.
Detto in pillola, la ragione consiste nel come l’IA è strutturata. Dispone esclusivamente di meccanismi logici e soprattutto di dati, inseriti gli uni e gli altri dagli umani. E della vita omette un aspetto decisivo, che il neuroscienziato portoghese Antonio Damasio ha esposto in un libretto uscito tre anni fa negli Usa e tradotto da circa un anno presso l’editrice Adelphi: Sentire e conoscere. Sostiene che l’intera storia umana dimostra come non sia possibile, per il nostro corpo, arrivare a conoscere (cosa che, come ho scritto ripetutamente, deriva dall’osservare con lo spirito critico individuale) se prima non sente il proprio interno e il mondo esterno.
Di fatti l’universo del sentire è stato una “precedente manifestazione storica di intelligenza….una sorta di passaggio intermedio per l’intelligenza superiore….. uno strumento nello sviluppo della graduale autonomia conquistata da noi esseri umani”. Invece, al momento attuale, nell’IA non vi è traccia di una simile capacità di sentire (per di più non è la sola, manca anche qualsiasi riferimento al desiderio, un’altra capacità cardine del vivere, come ha ricordato da poco il saggista Paolo Giordano).
Fin qui la tesi di Damasio è suffragata dall’andamento storico. Poi l’autore esprime una convinzione: che sia possibile trovare un rimedio costruendo robot in grado di sentire attraverso “il dargli un corpo che per conservarsi richieda regolamenti e aggiustamenti” ; insomma nella robotica “dobbiamo aggiungere alla robustezza un certo grado di vulnerabilità”. Ora, tale convinzione è del tutto legittima, oltre che affascinante, ma resta al semplice stadio di ipotesi tutta da verificare (lo stesso dicasi per il non occuparsi del desiderio). E siccome pare chiaro che i tempi di queste innovative ricerche saranno lunghissimi – di certo al di là di un orizzonte umano prevedibile oggi – mi pare non valga la pena di arrovellarsi sugli scenari della concorrenza tra IA e vita reale, che non si sa se e come potrebbero aprirsi. Riassumendo, non esiste alcuna concreta minaccia da parte dell’IA sul primato della vita umana.
Peraltro, visto che sto trattando l’argomento rapporti tra IA e vita umana, non voglio trascurare un altro aspetto già evidente. Cioè che, anche senza esercitare un primato, l’IA induce nella nostra quotidianità dei profondi cambiamenti. Al momento sono operanti due tipi, ma altri potrebbero attivarsi nel prossimo futuro. Intanto i due cambiamenti sono le enormi e velocissime capacità di calcolo dell’IA che hanno già introdotto grandi novità nel maneggiare la mole di dati di cui disponiamo. Novità sempre più visibili, le quali hanno avviato senza clamore modifiche nei rapporti del nostro convivere e addirittura vanno innescando il secondo genere di effetti percepibili in un domani non lontano.
Da appena più di un anno, un’applicazione dell’IA fatta dalla società OpenAI ha prodotto un software (chiamato ChatGbt) capace di simulare le conversazioni umane, a voce o scritte, dando a chi lo adopera la possibilità di interagire con i mezzi digitali come se fossero una persona reale. Tale software si è rivelato una vera bomba. In pochi mesi il nuovo algoritmo è stato addestrato partendo dagli archivi esistenti presso le reti di informazione giornalistica.
Ora è sufficiente fare domande e ChatGbt risponde ricorrendo ai testi degli archivi. Ed è chiamata IA generativa. Proprio l’estrema velocità del software, ha fatto però capire in alcune settimane che si stava creando un nuovo grave problema nella convivenza: quello del diritto d’autore sui testi usati. Infatti è naturale che il proprietario dell’algoritmo guadagni per il merito di averlo creato, ma non è accettabile che assorba anche il merito degli autori dei testi trattati dall’algoritmo. Detto altrimenti, le risposte fornite dal software ChatGbt non sono frutto esclusivo del suo funzionamento quale IA, siccome inglobano pure la qualità di chi ha scritto i testi ed è titolare del relativo diritto di autore. Da sottolineare inoltre che un simile ragionamento non si applica solo ai testi giornalistici ma vale per qualunque testo in qualsiasi settore e per ogni collaborazione.
In pratica, approfondire il tema IA smantella il mito illiberale della presunta gratuità di internet. È gratuito (visto che i costi delle trasmissioni hanno un’altra copertura) il reciproco semplice contattarsi, mentre non sono gratuiti moltissimi dei contenuti usati nei contatti, che hanno un loro valore autonomo incomprimibile in ogni rapporto di libertà. Concetti che i liberali non possono eludere. Per di più, il problema ora descritto con ChatGbt tende ad ampliarsi parecchio, dato che le società che ne dispongono si stanno ingegnando per personalizzarlo con l’agganciarlo ai gusti e alle abitudini degli utenti. In tal modo i produttori legheranno l’IA direttamente al dispositivo in uso, facendone un assistente personalizzato per ciascuno.
Basta soffermarsi su questo aspetto molto curato da diverse grosse imprese e da una serie di Stati (con investimenti economici impressionanti), per capire che presto si porranno tanti problemi di formazione e di sicurezza specie privata. Di formazione nel senso che è sempre più urgente mettere in grado ogni cittadino di capire come funzionano e cosa significano le tecnologie che lui utilizza. Il che accelera il tramonto della concezione dell’istruzione limitata al precedere la vita adulta. Perché per evitare che l’IA ci trasformi in suo strumento, è indispensabile che l’istruzione accompagni la vita senza interruzione.
E problemi di sicurezza specie privata, nel senso che è sempre più urgente rendere ogni cittadino consapevole della necessità di essere estremamente attento al dotare di continuo le proprie attività di una protezione dei dati privati il più possibile impenetrabile dagli estranei, inclusi i gestori dei sistemi di sicurezza. Il che attribuisce una dimensione nuova alla pratica del proprio ambito privato. Confermandolo come il fattore decisivo di distinzione della convivenza occidentale in termini non religiosi e non ideologici.
Appunto sui due problemi, la formazione e la sicurezza, verte il Regolamento varato i primi di dicembre 2023 in sede Ue, d’intesa tra Commissione, Parlamento e Consiglio d’Europa, denominato IA Act, al termine di un dibattito quasi triennale. Questo è stato solo il punto di partenza (dovranno seguire approvazioni formali e Gazzetta Ufficiale Ue, si spera entro la conclusione della legislatura), poi verrà l’entrata in vigore dal 2026 e nel 2029 i produttori dovranno adeguarsi. In ogni caso l’IA Act affronta il problema per la prima volta al mondo. Le intenzioni sono ottime, il risultato più incerto.
Le ottime intenzioni stanno nel voler analizzare e classificare l’uso dell’IA in base al rischio per i suoi utenti, per poi valutare i diversi livelli necessari di maggiore o minore regolamentazione. I rischi inaccettabili sono la manipolazione comportamentale e cognitiva delle persone, la classificazione sociale in base al livello socio-economico e alle caratteristiche personali, i sistemi di identificazione biometrica in tempo reale a distanza. I rischi alti emergeranno dall’esame delle specifiche modalità di funzionamento dell’IA in determinati settori quali istruzione, gestione dei lavoratori, servizi privati essenziali, servizi pubblici, forze dell’ordine, asilo e controllo delle frontiere, applicazione della legge. In generale l’IA generativa dovrà funzionare in modo trasparente (cominciando dal dichiararsi presente quando lo è e dal rendere noti i diritti di autore usati per addestrarsi) e non potrà creare mai contenuti illegali. Infine l’IA dovrà lasciar libero l’utente di continuare o meno ad adoperarla
L’incertezza sul risultato dell’IA Act non consiste tanto nelle preoccupazioni di chi diffida del cambiamento e teme le regole che lo favoriscono, siccome pensa che porre qualunque limite al mercato sia un onere per quanti lavorano e producono, soprattutto quando i limiti vengono posti per la prima volta (persona assimilabile a chi vorrebbe affievolire anche il diritto di autore, senza rendersi conto che farlo comprimerebbe i contributi individuali al convivere). L’incertezza vera circa il risultato dell’IA Act nasce dall’aver scorto, dissimulata nel suo processo di genesi, l’idea che questo regolamento Ue possa essere una regola definitiva per risolvere i portati dell’usare l’IA. Ma ciò è estremamente improbabile. Come ogni prodotto umano, anche l’IA è soggetta a continui revisioni e adattamenti, che rendono assai problematico predeterminarne un sistema di controllo fisso (cosa che è bene ricordi anche il G7 a presidenza italiana, che ha già sul tavolo il tema IA).
Il fulcro del problema sta sul fatto che aver introdotto l’IA generativa avvia nella convivenza umana un ulteriore cambiamento epocale: muta capacità e velocità di computare e quindi il modo di produrre. Allora si dice che tale innovazione minaccerebbe i posti di lavoro umani. Ma è una diceria sbagliata. Occorre almeno delimitare, solo quelli concepiti nella chiave rigida del ripetersi di un’organizzazione tradizionale del lavoro restia ad evolversi e a riflettere sul modo di procedere. Nella storia, l’umanità si è sempre sforzata di migliorare le condizioni produttive innovandole e sostituendo via via la fatica fisica (ancor più netta è forse l’innovazione dell’IA). Il fatto è che solo quando l’umano che si organizza prevale sull’organizzazione, la riflessione sulle procedure produttive è fisiologica per apprezzare i vantaggi, spesso assai consistenti, del nuovo modo di produrre. Il quale abbassa sì il numero di lavoratori necessari in quello specifico compito, però contestualmente da spazio a nuove opportunità di impiegare la forza lavoro in attività perfino impensabili fuori dell’IA.
Dunque, chi si preoccupa dell’avvento dell’IA (specie le elites) non lo fa perché l’IA riduce i posti di lavoro, bensì perché l’IA smantella gli assetti tradizionali di una società incline alla staticità. É questa la prospettiva che non accetta chi sostiene di volere il bene comune ma in realtà vuol conservare così come sono i ruoli e i privilegi esistenti negli assetti in corso. In pratica si ingegna per rifiutare la realtà della vita che procede. L’opposto del comportarsi da liberali. Per tutto ciò, è indispensabile non cercare di bloccare l’IA, bensì proseguire costantemente l’impegno a valutarne l’impatto, in particolare in tema di trasformazioni nel campo del lavoro. E ciò confligge con la pretesa di un sistema di controllo fisso.
Concludendo, l’IA non avrà il primato sull’umanità quanto meno ancora assai a lungo. Eppure, anche così, riflettere sull’IA porta l’attenzione sui carattere essenziale del convivere umano. Affrontare le sfide del tempo tramite l’evoluzione. Il che significa non cedere mai all’antica illusione di sognare l’eterno e di prevedere il futuro, pensando di avere sempre le risposte per tutte le domande. Saggiamente, lo scrittore israeliano Etwar Keret ammonisce che l’IA dovrebbe tener conto dell’esserci domande alle quali dare una risposta definitiva e unica sarebbe riduttivo e impoverente. Perché la strada nella vita può derivare solo dal confrontarsi, in base ai risultati nel tempo, della miriade di iniziative degli individui conviventi in istituzioni costruite sulle libertà individuali, sulle diversità di ognuno e sulla tolleranza tra tutti.