Skip to main content

IA, perché è difficile bilanciare progresso con regolazione. L’analisi di Zecchini

Intelligenza artificiale

Con l’AI Act, l’Europa mira a calibrare il bisogno d’innovazione e i rischi. Il risultato non è tra i migliori, ma è sempre migliorabile alla luce dell’esperienza che si acquisirà sotto più profili. Il commento di Salvatore Zecchini

Ormai il tema dell’intelligenza artificiale nelle sue declinazioni più avanzate (generative AI, foundation model e LLM) è entrato nell’informazione e nel dibattito quotidiano sui media, e giustamente perché si è capito che rappresenta la tecnologia più in grado di sconvolgere tutti i campi dell’attività umana, ma anche il modo stesso di strutturarsi della società. È una tecnologia in rapida progressione, che dischiude orizzonti imprevedibili e dalle conseguenze contrapposte tra il benefico e l’inquietante. Sorprende la rapidità di diffusione della generative AI dal momento in cui, dopo decenni di sviluppo, il suo utilizzo è stato semplificato per essere alla portata di tutti, come si è visto con i cento milioni di utilizzatori di ChatGPT a soli due mesi dal suo lancio. Inquieta la versatilità del suo impiego, che può essere rivolto a finalità nocive come a finalità vantaggiose per l’uomo, e che inavvertitamente per l’utilizzatore può generare discriminazioni o distorsioni nei comportamenti.

Le imprese se ne avvalgono da diversi anni e anche gli individui ne usufruiscono sebbene inconsapevolmente. Molti ignorano che i motori di ricerca da loro usati sulle piattaforme digitali li applicano da tempo e che lo stesso avviene in diversi apparecchi automatizzati di uso comune. Inquieta la capacità della generative AI di autoapprendere da grandi masse di dati tratti dall’esperienza passata e di individuare schemi e strutture su cui costruisce nuove soluzioni. Rielabora in forme innovative il patrimonio di dati su cui è stata addestrata e pertanto si avvicina ad alcune delle prestazioni umane in tempi ridotti e più efficientemente. Ma non possiede una creatività come quella umana, né può sostituirsi all’uomo se non in funzioni complementari o ripetitive. Ma le buone prestazioni dipendono dalla qualità degli algoritmi alla base del funzionamento: non tutti sono uguali; chi è in grado di svilupparne di migliori ha un vantaggio competitivo sulla concorrenza.

Fornisce un grande aiuto all’uomo, ma presenta rischi, benché non vi sia nuova tecnologia che non comporti rischi più o meno grandi. Navigare in internet espone a ogni sorta di rischio, dai virus alle fake news e al furto di dati o di denaro dai conti di deposito, incluse le criptovalute. Dal primo volo dei fratelli Wright nel 1903 all’impiego massiccio nella Grande Guerra, in appena 11 anni l’aviazione ha fatto progressi inimmaginabili e mietuto tante vittime. Pertanto, l’approccio alla generative AI non può consistere nel costringerla in una gabbia di regole e divieti in funzione della sicurezza, specialmente vista la scarsa comprensione dei suoi meccanismi da parte dei suoi stessi artefici, ma mirare a contenere le discriminazioni e distorsioni, e introdurre un vincolo di trasparenza sui suoi prodotti, ovvero di informazione del pubblico sull’origine artificiale dei suoi risultati. Se la si impiega a scopi nocivi, sta al Codice penale intervenire.

Bilanciare adeguatamente apertura al progredire di questa tecnologia con regolazione per prevenire e sanzionare usi dannosi è un compito al limite del possibile, almeno in questi anni di rapido avvio, evoluzione e diffusione, in quanto possiede entrambe le potenzialità, positive e negative. Da un lato, versatilità per ogni compito, semplicità di uso, velocità di elaborazione, straordinaria capacità di calcolo, mentre dall’altro lato, modo parzialmente oscuro di giungere ai risultati, riproduzione dei difetti o discriminazioni presenti negli schemi del passato, assenza di comprensione dei metadati ovvero del contesto interpretativo dei dati, risposte erronee o distorte, e possibili violazioni dei diritti alla riservatezza delle persone. Ovviamente, come per altre tecnologie, si presta a manipolazioni dei mercati, o a usi a fini criminali, oppure illeciti e a scopi bellici.

Per le imprese, la ricerca scientifica, le scienze mediche e le infrastrutture sono divenute un importante strumento di innovazione o di gestione. In campo economico gli impieghi sono svariati, dall’innovazione al marketing, alla progettazione di investimenti, all’analisi dei mercati, e alle relazioni con i clienti e alla transizione “verde”. In particolare, l’obiettivo ultimo per cui lo si utilizza è realizzare in tempi più corti del passato innovazioni, incrementi di produttività del lavoro e maggiore competitività.

L’effetto si coglie nell’andamento dei rendimenti dei titoli azionari di società che si avvalgono di generative AI. Dall’introduzione di ChatGPT nel novembre del 2022, i titoli delle società maggiormente impegnate nell’utilizzo di GAI hanno fornito rendimenti superiori alla media del mercato e ancor più alti di quelli di imprese meno esposte. Un’altra evidenza dell’impatto della generative AI si rileva nella domanda di competenze specialistiche, insieme a quelle complementari, e nel grado in cui resta insoddisfatta per carenza di disponibilità. Tra il 2019 e il 2022 si è assistito a un’impennata delle richieste di competenze nel campo dell’IA, fortemente concentrate nel settore della manifattura, oltre che nei servizi professionali e nelle ICT, con percentuali di posti vacanti tra 13% e il 25%. Tra le competenze ricercate quelle relative al deep learning risultano le più frequenti.

In Italia i posti di lavoro vacanti interessano maggiormente il machine learning, seguiti da quelli per esperti di IA e reti neurali. Negli Stati Uniti, Paese che da più lungo tempo è impegnato nell’adozione dell’IA, i settori, in cui le imprese a più alta occupazione richiedono tali competenze, si estendono al commercio al dettaglio, la finanza e le assicurazioni e si indirizzano particolarmente su specialisti in materia di analisi di sistemi, sviluppo di software, ungegneria di reti e sistemi, matematici e servizi cloud.

In questa corsa delle imprese, ma anche dei professionisti e dei ricercatori, a cogliere le grandi opportunità dischiuse dalla generative AI si inserisce la nuova disciplina dell’Unione europea, l’AI Act, varata a conclusione di un difficile accordo tra Consiglio, Commissione e Parlamento dopo due anni di lavori. Questa legge quadro tende a fissare una regolazione uniforme per tutti gli Stati membri e viene presentata dalla Commissione in funzione di assicurare il buon funzionamento del mercato unico e di salvaguardare i fondamentali diritti e i valori degli europei. Si asserisce anche che si è seguito un approccio bilanciato e proporzionato, nel senso di limitare la regolazione al minimo necessario per fronteggiare i rischi, di lasciare spazio allo sviluppo tecnologico e di contenere i costi per gli utilizzatori. Che vi sia un adeguato bilanciamento è molto discutibile, e che l’intervento sia proporzionato è da verificare alla luce dell’effettiva esperienza di effetti negativi che si acquisirà negli anni futuri, in quanto si è ancora agli albori della diffusione dell’IA.

Invero, è una disciplina al tempo stesso restrittiva su alcuni aspetti e indeterminata su altri, su cui tuttavia non si lascia carta bianca perché nuove limitazioni sono possibili. I sistemi basati su Ai devono essere sottoposti a valutazione prima dell’immissione sul mercato per misurarne il grado di rischio di violare diritti fondamentali e norme. Sono, in particolare, proibiti la profilazione individuale secondo determinate caratteristiche (social scoring), lo sfruttamento delle vulnerabilità di persone e loro categorie, l’uso di tecniche subliminali per manipolare la libera volontà dell’individuo, l’identificazione biometrica da remoto e in tempo reale, e il riconoscimento delle emozioni nel posto di lavoro e nei centri d’istruzione.

La valutazione del rischio rappresenta il punto più imponderabile e fonte di dubbi perché si applica a una tecnologia ad ampio spettro d’uso (general purpose), in rapida evoluzione, difficile da comprendere, se non inscrutabile nei suoi processi, e condotta da esperti che possono non essere a conoscenza di sviluppi coperti dalla segretezza degli sviluppatori. Per ovviarvi, la disciplina richiede la pulitura dei dati per l’addestramento del software, trasparenza sulla procedura di elaborazione e diversi altri obblighi. Il risultato potrebbe essere che il mercato europeo tenderebbe a essere tagliato fuori dalle innovazioni più avanzate, oppure potrebbe lasciar passare sistemi che aggirano i vincoli posti. Nel primo caso l’effetto di scoraggiamento delle innovazioni è importante per via delle sanzioni. Queste variano a seconda della violazione tra 7,5 milioni o l’1,5% del fatturato aziendale e 35 milioni o il 7% del fatturato globale. Nel secondo caso, la disciplina non considera specificamente le applicazioni di IA incorporate in apparecchiature di uso comune (per esempio nell’assistente vocale), perché le ritiene comprese nelle verifiche settoriali di conformità del prodotto. Resta nondimeno fuori regolamentazione lo sviluppo di sistemi IA generativi da parte di imprese o individui per usi strettamente interni in funzione di specifici vantaggi che non vengono alla luce sul mercato, se non raramente.

I divieti di social profiling e di identificazione biometrica a distanza sono altamente limitativi rispettivamente nelle attività aziendali (per esempio nel marketing) e in quelle per la pubblica sicurezza. Guadagni di efficienza sono, invece, possibili per le imprese nel libero impiego della capacità dei sistemi IA di analizzare rapidamente le preferenze di consumatori e investitori, di conoscere gli schemi comportamentali della clientela, e l’evoluzione della composizione dei soggetti operanti nel mercato. Analogamente, per le banche sarebbero facilitate le valutazioni del merito di credito dei richiedenti credito e la ponderazione del rischio finanziario. Per le imprese di assicurazione sarebbe più agevole precisare il profilo di rischio dell’assicurato per determinare il costo dell’assicurazione e gli assets da detenere per coprire un eventuale sinistro, se e quando si presenterà.

Sono criticabili anche i limiti che la regolamentazione intende porre all’impiego dell’IA a fini di pubblica sicurezza, di mantenimento dell’ordine pubblico e di identificazione di autori di reati nelle masse. Sembra quasi che non si abbia fiducia nella fedeltà delle forze dell’ordine alle regole e istituzioni della democrazia europea. Pertanto, si devono seguire procedure particolari per potersi avvalere dello strumento. Limitare le possibilità d’impiego di sistemi IA in questo campo come nelle applicazioni per il mercato comporta in definitiva costi maggiori per la collettività e minori opportunità di efficienza, legalità e crescita economica.

La Commissione è consapevole dei freni all’innovazione che la disciplina comporta, al pari degli oneri che riversa sulle imprese, al punto da prevedere che le autorità nazionali creino un ambiente controllato (regulatory sandbox) in cui si possa sperimentare temporaneamente la conformità alle regole dei nuovi sistemi IA prima dell’immissione sul mercato. Si prevedono altresì misure per alleggerire il costo delle nuove procedure per le PMI.

Il nodo critico sta, tuttavia, nel monitoraggio e nel controllo degli usi. Questo compito è affidato alle autorità nazionali e al coordinamento svolto da un nuovo ente europeo costituito appositamente (EAI Board). Difformità possono emergere tra gli Stati nell’atteggiamento verso il monitoraggio e verso le sanzioni, con impatti disuguali sui diversi sistemi economici nazionali. Questa conseguenza non ha ricevuto l’attenzione che merita.

Eppure, è importante avere alcune regole generali nell’utilizzo di tecniche IA, visti i rapidi sviluppi e le grandi ripercussioni di questa tecnologia. Secondo le analisi dell’Ocse sui nuovi brevetti, dal 2000 al 2018 l’interesse delle imprese e dei ricercatori si è concentrato sull’impiego dell’IA nella robotica, nella visione e riconoscimento di immagini, e nei sistemi avanzati, come il deep learning e la generative AI. Un progresso così veloce e incondizionato può tanto aiutare l’uomo, quanto travolgerlo.

La via scelta per la regolamentazione è solo una delle cinque opzioni esaminate dalla Commissione ed è quella che mira a calibrare l’intensità della regolazione al livello di rischio dell’IA e al bisogno d’innovazione. Il risultato non è tra i migliori, ma è sempre migliorabile alla luce dell’esperienza che si acquisirà sotto più profili. Intanto, fornisce qualche certezza agli operatori sulle loro responsabilità e sui conseguenti oneri. Non va dimenticato in ogni caso che il prodotto dell’elaborazione dell’IA non può essere adottato ciecamente a fini decisionali, ma va esaminato dall’uomo prima di usarlo e di portarne la responsabilità.

×

Iscriviti alla newsletter