Skip to main content

Paura e realtà dell’Intelligenza artificiale secondo Zecchini

Migliori risultati si otterrebbero se governi e imprese si preparassero a finanziare programmi di formazione nelle competenze richieste e facilitassero la transizione del lavoratore. Se, invece, qualcuno decidesse di procedere indipendentemente verso una disciplina rigida dovrebbe essere consapevole delle implicazioni per innovazione, competitività, produttività e prosperità

Tra le nuove tecnologie in grado di operare profonde trasformazioni della nostra società e di ogni campo delle attività umane attualmente svettano per interesse e importanza le applicazioni “generative” dei grandi modelli linguistici (LLM), quali ChatGPT e gli analoghi, che rappresentano la recente evoluzione delle tecniche di Intelligenza Artificiale. Quel che rende queste applicazioni rivoluzionarie, a parte le loro capacità in continua espansione, è la loro accessibilità al grande pubblico, la facilità d’uso e la flessibilità nello svolgere compiti di ogni tipo. Per esempio oltre a preparare testi, possono creare forme di arte e comporre musica, sempre attingendo all’esperienza umana a cui è stata esposta e da cui ha “imparato”.

Proprio queste caratteristiche e la rapidità con cui vengono prodotte forme sempre più avanzate di applicazioni preoccupa non poco lavoratori e governanti, mentre mostra le grandi imprese sempre più impegnate a usarle e le altre a seguirne la strada con affanno e lentezza. Gli avanzamenti tecnologici si susseguono a una velocità mai vista nel ventesimo secolo con risultati al limite del credibile. In alcuni centri di ricerca si stanno già sperimentando applicazioni IA con capacità logiche, allorché quanto è in uso attualmente ha capacità essenzialmente ordinatorie e compilative. Quando si farà questo salto, gli effetti saranno sconvolgenti perché la macchina o meglio la combinazione tra computer e algoritmo neurale potrà cominciare a intaccare il privilegio dell’essere umano di essere l’unico dotato di capacità logiche avanzate.

Nel frattempo si accrescono i timori che questa tecnologia abbia impatti nefasti sul lavoro, il lavoratore e il contesto del lavoro. Sulle implicazioni di questa tecnologia in evoluzione cercano di portare luce diversi studi e ricerche, tra cui di recente uno del Direttorato Occupazione l’OCSE (diretto da un economista italiano) e l’altro di McKinsey. Affrontano il tema da due punti di vista differenti, il primo da quello dell’occupazione e dei governi e l’altro da quello delle imprese e dei vertici manageriali delle società, e convergono nel ritenere che IA produrrà profonde trasformazioni nell’impresa e nel lavoro, col risultato di un considerevole incremento della produttività e della crescita economica. Grandi differenze, invece, nel sottolineare la presenza di rischi, con il primo fortemente concentrato su questo aspetto e il secondo meno attento.

Quali i timori, i rischi e le preoccupazioni? Su questo tema sussistono “consolidate opinioni e nette divisioni” su benefici e rischi, come riconosce l’OCSE alla luce di un’indagine sul campo che ha coinvolto 2000 datori di lavoro e 5300 lavoratori. Queste diversità si ritrovano anche nella letteratura teorica, che sottolinea accanto ai vantaggi innegabili i rischi derivanti dalla possibilità che al lavoro umano si sostituiscano le macchine governate da algoritmi sempre più avanzati, come quelli GPT. L’impatto da sostituzione si avvertirebbe nel tempo in parallelo con il progresso realizzato nelle capacità degli algoritmi di governare l’automazione del processo produttivo, sia esso di tipo materiale, sia immateriale, per esempio con invenzioni, scoperte e inferenze logiche, che sono oggi limitate.

I rischi vanno oltre l’automazione e sono ormai evidenti nelle applicazioni disponibili. Queste possono prestarsi a usi malevoli, generare false convinzioni, distorcere l’opinione pubblica con la diffusione di false notizie, facilitare la produzione di mezzi di distruzione, inquinare i processi elettorali nelle democrazie, assecondare il terrorismo e minacciare la sicurezza nazionale. Alcuni impieghi controversi sono già in uso in regimi autoritari, che se ne servono per la sorveglianza e il controllo delle masse, per orientarne le opinioni, e invadere la sfera personale dell’individuo. Siamo agli albori di questa era d’IA dirompente dei sistemi sociali esistenti, perché la sua diffusione rimane ancora indietro rispetto alla velocità dell’avanzamento tecnologico.

Nell’ambito del lavoro, gli studi stimano il potenziale rischio occupazionale analizzando i tipi di competenze richieste sul lavoro per individuare quelle ad alto rischio di essere automatizzate mediante l’IA generativa. L’OCSE stima in tal modo che il 27% dell’occupazione nei suoi Paesi membri è soggetto a questo rischio, mentre un precedente studio di McKinsey stimava una percentuale più elevata. Incredibilmente, in contrasto con l’opinione diffusa, secondo le ultime analisi di McKinsey a essere colpiti più che in un sistema senza il tipo di automazione da IA generativa non sarebbero i lavori a bassa competenza, ma quelli che richiedono un’istruzione superiore. La spiegazione sta nella capacità crescente dell’IA generativa di svolgere compiti cognitivi propri delle professioni liberali. Da queste valutazioni, tuttavia, non si può dedurre un effetto sostituzione del lavoro in quanto il lavoratore o professionista colpito può essere indotto a svolgere compiti diversi, o può essere spostato ad altre mansioni, senza perdere opportunità di lavoro. Un effetto di transizione a nuove funzioni e di radicale cambiamento dell’organizzazione del lavoro è in ogni caso probabile, prima che si verifichi una perdita dell’occupazione.

La varietà dei modi in cui l’IA generativa può ripercuotersi sul lavoro è nondimeno vasta come dimostra la diversità di preoccupazioni rilevata nell’indagine dell’OCSE. Tre quinti dei lavoratori intervistati teme di perdere il posto a causa dell’IA nel prossimo decennio e due quinti di quelli impiegati nell’industria manufatturiera e nei servizi finanziari è preoccupato per le conseguenze negative sulle retribuzioni. Anche i meccanismi di selezione degli addetti da assumere basati sull’IA hanno mostrato in alcuni casi discriminazioni e distorsioni dovuti all’applicazione meccanica dei risultati di algoritmi addestrati a rilevare le frequenze di eventi senza capacità di interpretarli nel contesto appropriato. Un esempio è la discriminazione degli afroamericani sulla base delle statistiche sui reati. I lavoratori lamentano altresì gli effetti in termini di intensificazione dei ritmi di lavoro, minore autonomia, ridotte interazioni umane, maggior monitoraggio delle loro prestazioni e rischi per la tutela dei dati personali e dei diritti acquisiti.

Nella realtà, le conseguenze sull’occupazione e sui livelli retributivi si sono finora dimostrate limitate, pur in presenza di un rischio potenziale di perdita del lavoro, mentre sono cambiati i compiti e le competenze richieste. Il problema delle competenze specifiche è un punto cruciale anche per gli imprenditori, in quanto per due quinti del campione intervistato, la loro carenza viene denunciata come una barriera effettiva all’adozione dell’IA generativa. Per le imprese che hanno risolto il problema, contrariamente alle attese, la domanda di lavoro è aumentata anziché diminuire, come si è visto, per esempio, nello stabilimento della BMW nella Carolina del Sud negli Stati Uniti. La produzione di SUV è stata interamente automatizzata e gestita dall’IA con l’intervento soltanto sussidiario dei lavoratori alla catena di montaggio per rimediare a qualche imperfezione nella produzione, ma la compagine dei lavoratori si è anche ingrandita nell’ultimo quinquennio.

Da parte dei lavoratori l’atteggiamento verso l’applicazione dell’IA non è del tutto negativo. Nell’indagine dell’OCSE la maggioranza degli intervistati (63%) rilevano che con l’IA si è arricchita la qualità delle prestazioni e la loro soddisfazione per il lavoro, in quanto li ha liberati da compiti ripetitivi e li ha concentrati su quelli più complessi e interessanti. L’evoluzione delle mansioni di lavoro mette in evidenza, secondo gli imprenditori, l’importanza di competenze umane complementari per ottenere il meglio dall’impiego dell’IA. Addirittura, la sua applicazione consente di supplire alla carenza di personale e all’inverno demografico di una popolazione in invecchiamento.

Più problematico garantire il rispetto di principi di equità, trasparenza, responsabilizzazione e comprensibilità nelle decisioni sull’occupazione guidate dall’IA generativa. In questo campo, in cui è molto arduo stabilire limiti all’uso e rispetto delle regole, i governi sono chiamati a intervenire con regolamentazioni. Il metodo più seguito consiste in una regolamentazione leggera, che non arriva al rigore di norme di legge eccetto per quelle antidiscriminazione e contro l’uso malevolo per arrecare danni alla società, come si è visto con gli attacchi cibernetici. Si tratta di un approccio di “de-risking” delle applicazioni, ovvero di gestione del rischio connesso all’uso dell’IA.

Una recente proposta dell’UE mira a ottenere una supervisione dell’uomo sui risultati dei modelli di IA per garantire trasparenza, tracciabilità e non discriminazione nelle decisioni aziendali. Negli Stati Uniti, sotto l’impulso della presidenza Biden, si è chiesto alle maggiori imprese di definire un codice di condotta a cui attenersi volontariamente. Alla luce dell’esperienza che si farà, si vedrà se il metodo funziona, o se sarà necessario rafforzarlo con norme e principi cogenti.

Un passo in avanti si è compiuto all’ultima riunione del G7 a Hiroshima, in cui i capi di Stato hanno incoraggiato i lavori per realizzare un affidabile sistema di governo e interoperabilità delle condizioni quadro nell’uso dell’IA e hanno auspicato la costituzione di standards accettati internazionalmente in linea con i valori democratici. In sostanza, si vuole sviluppare il sistema di principi approvato dal Consiglio dell’OCSE nel maggio 2019, che comprende l’insieme dei requisiti di un sistema affidabile. L’obiettivo è cooperare per preparare la transizione verso il nuovo mondo del lavoro, in cui si possa affermare un uso responsabile dell’IA. Il mezzo per giungervi è il dialogo sociale con le parti in causa e il sostegno a quanti sono spiazzati dal cambiamento del lavoro mediante investimenti in formazione e nuove opportunità di occupazione.

Ma come si può regolamentare rigorosamente una tecnologia in veloce evoluzione e di cui non si riesce a comprendere i meccanismi attraverso cui giunge a determinate conclusioni? Si vorrebbe regolamentare l’incompreso perfino dagli stessi autori degli algoritmi, mentre i governanti chiedono chiarezza e tracciabilità. È proprio una contraddizione plateale, di cui un’analogia potrebbe trovarsi nell’asserire di comprendere la meccanica quantistica. Non la si comprende, è controintuitiva, ma funziona. Anche il dialogo sociale appare arduo con controparti che hanno scarsa conoscenza di questa tecnologia, ma che intendono difendere i diritti acquisiti di fronte a un management, invece, impegnato a riorganizzare il lavoro per avvalersi dell’IA generativa in funzione di una maggiore produttività e competitività. Per la tracciabilità delle decisioni, rendere pubblici gli algoritmi generativi sarebbe in contrasto con la protezione della proprietà intellettuale e danneggerebbe la competitività dell’impresa nella concorrenza. Sarebbe più saggio acquisire più esperienza sugli impieghi che si fanno e sperimentare regole diverse prima di consolidarle in norme.

In realtà siamo all’inizio di un viaggio per comprendere la potenza e le capacità della IA generativa e delle sue evoluzioni nel cambiare la nostra società, il lavoro e la nostra vita. Migliori risultati si otterrebbero se governi e imprese si preparassero fin d’ora a questo futuro e si impegnassero congiuntamente a finanziare estesi programmi di formazione nelle competenze richieste e facilitassero la transizione del lavoratore verso le nuove modalità di lavoro. Se, invece, un Paese progettasse di procedere indipendentemente dagli altri verso una disciplina rigida dell’impiego dell’IA ponendo limiti di legge, benché ispirati a principi etici, dovrebbe essere consapevole dei notevoli costi a cui probabilmente andrebbe incontro in termini di ostacoli all’innovazione, alla competitività, alla produttività e in definitiva alla sua prosperità.

×

Iscriviti alla newsletter