Serve riflettere, approfondire e regolare una grande opportunità. L’analisi di Biagino Costanzo, dirigente di azienda e docente Master in Risk Management e Homeland Security
“Il rischio è che l’intelligenza artificiale superi l’insuperabile, ovvero quella umana”. Così ho chiuso, tempo fa, una mia riflessione sul tema. Bene, anche su questo argomento nell’ambito della cd ”Artificial Intelligence”, ora tutti si interrogano e l’impatto sarà quello, ad ogni livello, di un nuova, travolgente rivoluzione che produrrà palesi e ulteriori mutamenti non solo in ambito post industriale ma soprattutto in quello sociale.
Oggi si va oltre gli IoT, ovvero che tutti gli oggetti possono diventare “intelligenti” connettendosi alla rete e scambiando informazioni su di sé e sull’ambiente circostante, è altrettanto vero che questo processo non avviene in tutti gli ambiti, in tutti i posti e con la stessa velocità. Chiaramente questo dipende dall’esistenza di soluzioni tecnologiche consolidate, dagli equilibri competitivi in un determinato mercato e, infine, dal bilancio tra il valore dell’informazione e il costo di creazione della rete di oggetti intelligenti.
Come è noto dall’intelligenza artificiale nascono molte applicazioni, il piu famoso in questi mesi è ChatGPT, che in Italia ma non solo è oggetto di riflessione su come regolarizzarlo per i rischi che vengono riscontrati nella sua fase di attuazione riguardante innanzitutto la privacy e la riservatezza dei dati personali. Il nuovo chatbot ha conquistato internet e ha dimostrato quanto possa essere coinvolgente l’IA anche quando si inventa fatti.
L’aspetto che permette a ChatGpt di distinguersi è la sua capacità di rispondere a una domanda formulata in modo naturale utilizzando una nuova variante di Gpt-3, chiamata Gpt-3.5. Questa modifica ha permesso di sbloccare una serie di funzioni che consentono di rispondere a qualsiasi tipo di domande, garantendo al potente modello di IA una nuova interfaccia utilizzabile da chiunque. Ma i problemi emersi sono collegati a come il servizio sia in grado di inventare in modo convincente assurdità su un determinato argomento.
Insomma, istituzionalizziamo le fake news? Sebbene apparentemente sia progettato per impedire agli utenti di fargli dire cose spiacevoli o di consigliare azioni illegali o sgradevoli, ChatGpt può comunque riprodurre pregiudizi orribili. Gli utenti hanno anche dimostrato che i suoi sistemi di controllo possono essere aggirati. Ancora, qualche tempo fa, l’IA in Giappone è arrivata con Xiaoice, la donna virtuale che fa compagnia 24 ore su 24 a milioni di cinesi, inoltre questo chatbot, dalle sembianze femminili, non solo risponde in chat ai suoi utenti, ma li contatta quando sono tristi o depressi. Il problema però è epocale, culturale, umano in questo caso, una cosa è usare l’IA per facilitare la vita quotidiana, il lavoro, la salute dell’essere umano, un’altra è usarla per sostituire la vita vera che riguarda l’umanità con i suoi dolori, le gioie, l’amore, il sesso, le emozioni, il sudore, le soddisfazioni. Il rifugiarsi su un qualcosa di virtuale, impalpabile, che fa tutto quello che vuoi, ma non è reale… è semplicemente abnorme.
Dobbiamo riflettere sul fatto che solo questo algoritmo ha coinvolto più di 600 milioni di utenti, in maggioranza uomini di nazionalità cinese e giapponese con reddito basso, possiamo farci una idea sull’entità di questo fenomeno. Xiaoice appare sullo schermo con le sembianze di una ragazza intorno ai 18 anni che scherza e coinvolge i propri partner scherzando con loro e inviando testi e immagini sessualmente espliciti. E nel frattempo raccoglie informazioni mirando a diventare la fidanzata ideale di più uomini nello stesso momento. È infatti, a questo punto, diviene naturale e necessario interrogarsi anche su quali implicazioni possano esistere in materia di privacy e di sicurezza in questa materia e per i dispositivi connessi.
Quando, per esempio, un attore malevolo vuole attaccare dei dati, inficiando quindi, in qualsiasi modo, uno dei tre parametri che ne definiscono la sicurezza, custoditi e gestiti da una parte ma proprietà di un’altra parte, se viene dunque attaccato un sistema che tratta dati di terzi, la privacy di questi dati viene di sicuro messa in pericolo. Bisogna mettere in sicurezza anche questo “terreno” tecnologico/scientifico/cibernetico, il quale sta divenendo la base, artificiale se vogliamo, ma indispensabile non solo per il funzionamento della società ma per la vita stessa dei singoli umani sempre più dipendenti e incapaci di vivere al di fuori di essa.
C’è molta disattenzione, superficialità, se non supponenza, in giro, su queste tematiche. In molti sono convinti che tutta la tecnologia può essere gestita e domata e quindi alimenta questa intensa fase commerciale e spinta ad un consumo passivo, acritico, fornendo al pubblico sempre nuove opportunità e strane esperienze. È naturale che all’occhio del consumatore tutto questo può significare solo progresso, un miglioramento rispetto al passato, ma questa visione semplicistica inerente allo sviluppo dell’ambiente intelligente non coglie i rischi sia sociali che ambientali né il cambiamento antropologico delle generazioni future rispetto a quelle precedenti. Quindi ancora una volta il fattore umano resta sostanziale in tutte le cose della nostra esistenza e ancor di più oggi se parliamo di scienza, progresso, tecnologia e in essa appunto l’intelligenza artificiale. È sempre l’essere umano, si spera, con lucida razionalità competenza ed esperienza a dover sapere affrontare organizzare e armonizzare questi cambiamenti epocali e non penso solo a quelli tecnologici e scientifici, per garantire una società sicura, evoluta e sempre attenta all’interiorità e soggettività di ogni singolo, così da evitare il caos.
E non mi dilungo, perché meritevoli di capitoli a parte, sugli ambiti propri riguardanti le applicazioni militari e industriali dove un algoritmo, pur utile in molti settori militari, non può sostituire l’uomo nella decisione di spingere o meno un pulsante dal quale dipende la vita e la morte di migliaia di persone.
Attenzione quindi a non scivolare pian piano nel rischio fanatismo, arrivare cioè all’esaltazione di un manifesto di un novello transumanesimo, e se poi questo lo decliniamo anche nelle varie, attuali, attività progettuali necessari per ricevere i fondi del Pnrr, quali ad esempio, la digitalizzazione, le riforme della pubblica amministrazione, del debito, del fisco, la transizione energetica, della giustizia e, appunto, dell’intelligenza artificiale, si comprende bene lo scenario delicato nel quale ci muoviamo. Bisogna stare molto attenti a parlare di superamento dell’intelligenza artificiale su quella umana solo perché la prima non è emotiva e quindi i robot saranno il futuro sì, dimenticando una banalità, che senza l’uomo, chi guida, infatti, i robot?
L’ossimoro del tempo che viviamo è che, mentre si parla costantemente di diritti, diritti (ma un po’ di doveri no?) diritti umani, di libertà, di gender fluid, parità di genere, di garanzia per tutto e tutti, passando dal “politicamente corretto” o alla, per me odiosa e pericolosa, “cancel culture”, ci facciamo attraversare con una indifferenza puerile, da questa immensa rivoluzione con una genericità disarmante.
Siamo coscienti che l’IA sarà utilissima in molti campi, ad esempio, consente, nelle aziende, lo sviluppo di una nuova generazione di prodotti e servizi, anche in settori quali la sanità, la moda, lo Spazio, l’economia circolare, il cambiamento climatico, l’agricoltura, il turismo; infatti, può aumentare sia la produzione che la qualità, facilitare percorsi di vendita più fluidi e ottimizzati, risparmiare energia, migliorare la manutenzione dei macchinari, migliorare il servizio ai clienti.
Inoltre sarà, non solo utile ma necessaria in medicina, ricerca scientifica, dai trasporti, all’individuazione strumentale contro la siccità o la deforestazione, dalla protezione degli oceani, alla sicurezza delle infrastrutture critiche. È di pochi giorni fa la notizia pubblicata sulla rivista Nature Cancer che “Sphinks”, così si chiama l’algoritmo grazie al quale l’intelligenza artificiale, sta imparando a dare la caccia ai tumori maligni, a partire da quelli del cervello, li riconosce e, per ognuno di essi riesce a individuare le armi più efficaci per combatterlo: è uno dei passi più importanti e recenti verso la medicina di precisione. Sarebbe utile, anche, ad esempio, nello snellire tutta la burocrazia della macchina amministrativa, finalmente!
Al contempo però scopriamo che, appunto, ChatGPT ha recentemente “confessato” di aver scritto le tesi per gli studenti della Texas A&M University, dove poi un professore ha bocciato gli studenti interessati. Come l’ha scoperto? Semplicemente chiedendo a ChatGPT se avesse scritto i testi e la risposta sarebbe stata affermativa… (beh, se è intelligente, pur artificialmente, è intelligente).
Già vi è un problema di deficit di comprensione con l’analfabetismo di ritorno imperante, che, ricordo, non è non saper leggere e scrivere ma, ancor peggio, non comprendere ciò che si legge e si scrive, quindi ecco la ciliegina sulla torta, ovvero che gli esami, gli studi o le ricerche li faccia direttamente la IA.
Oppure un progetto, o anche una sentenza, e in riferimento a questo, è notizia di queste settimane quella che un legale di New York, ha rovinato trent’anni di onesta carriera forense per un uso maldestro di Chat GPT. L’avvocato per istruire un caso si è affidato ciecamente alla piattaforma, la quale gli ha fornito date di vecchi procedimenti, numeri di protocollo degli stessi e anche aule di tribunale dove sarebbero state emesse. Sette casi tutti inventati di sana pianta. I tecnici la chiamano “allucinazioni”, termine anch’esso fuorviante perché ambisce a dare una connotazione umana alla IA. In poche parole, si è trattato semplicemente di risposte false, inventate, che l’intelligenza artificiale amalgama alle informazioni fondate che si conoscono.
Bisogna essere seriamente consapevoli, quella che oggi chiamiamo “intelligenza” è in realtà un modello probabilistico fondato su un meccanismo statistico e su un immenso data base che comprende tutto ciò, sia esso buono e cattivo, che naviga in Internet.
Sappiamo e lo ripetiamo, non si può e non si vuole fermare il progresso e la tecnologia che comunque vanno avanti, ma fare esercizio di riflessione e dare una seria regolamentazione agli stessi è vitale per non scivolare verso l’antico sogno prometeico dell’uomo che si fa Dio, nemmeno umano, ma appunto transumano, con un ristrettissimo circolo che saprà gestire il mondo con le nuove tecnologie.
Creare un mondo di apolidi senza più identità siano esse storiche, religiose, culturali, sessuali e con lavori sempre più precari e il conseguente imbarbarimento civile. Se non vogliamo divenire tutti figli di algoritmi cerchiamo di ricordare sempre che vi è sempre un costo da pagare, sempre, nulla è gratis e quando lo è, vuol dire semplicemente che quelli in vendita siamo noi.
È questo il progresso che vogliamo? È questo il futuro che auspichiamo? È questa la libertà che aneliamo?
“Temo il giorno in cui la tecnologia andrà oltre la nostra umanità, il mondo sarà popolato allora da una generazione di idioti” (Albert Einstein)