Skip to main content

Come governare l’IA per non restarne vittime. Parla Maurizio Mensi

L’Intelligenza Artificiale presenta tante opportunità quanti rischi e sempre più attori chiedono una regolamentazione elaborata affinché le prime possano superare di gran lunga i secondi. Formiche.net ne ha parlato con Maurizio Mensi, professore di Diritto dell’economia alla Scuola nazionale dell’amministrazione e direttore del Laboratorio LawLab Luiss

L’analisi costi-benefici dell’Intelligenza Artificiale va avanti. Dal World Economic Forum di Davos, il ceo di OpenAI Sam Altman è tornato a parlare di un’Agenzia internazionale per governare l’IA, così da poterla sfruttare in modo del tutto sicuro. Delle possibili devianze tecnologiche hanno discusso anche il fondatore di Microsoft e tra i maggiori esperti in materia, Bill Gates, e la presidente del Consiglio, Giorgia Meloni, durante il loro faccia a faccia a Palazzo Chigi. A cui ha preso parte, in qualità di presidente del Comitato per l’Intelligenza artificiale istituito dal governo, padre Paolo Benanti, che poco prima aveva avvertito delle conseguenze nefaste dell’IA sul mondo del giornalismo. Di tutto questo, Formiche.net ne ha discusso con Maurizio Mensi, professore di Diritto dell’economia alla Scuola Nazionale dell’Amministrazione e direttore del Laboratorio LawLab Luiss.

Da Davos Sam Altman è tornato a parlare dell’urgenza di regolamentare l’IA. E ha di nuovo paragonato l’intelligenza artificiale all’atomica. Prima che quest’ultima venisse regolata c’è tuttavia voluto un evento come il bombardamento di Hiroshima e Nagasaki. Crede che per capire l’importanza di un’Agenzia internazionale anche per l’IA serva un punto di rottura così forte?

Direi di mettere da parte i toni apocalittici per ragionare su quello che occorre fare, vale a dire stabilire con celerità un quadro di regole condivise e assicurare all’IA una governance adeguata. Per quanto riguarda le prime, quello che sta emergendo come soluzione ottimale a livello internazionale, fra le indicazioni contenute nell’Executive Order della Casa Bianca del 30 ottobre 2023 e quelle nel regolamento europeo di prossima adozione, è una miscela di intervento pubblico e privato. Servono insomma regole giuridiche insieme a quelle deontologiche ed etiche, queste ultime necessarie soprattutto per orientare la ricerca. Occorre infatti garantire che l’IA sia affidabile, spiegabile, tracciabile, trasparente e inclusiva.

Come ci si riesce?

Naturalmente bisogna procedere con cautela, perché ogni nuova regola comporta un costo. È necessario verificare che sia “future proof” e “business friendly”, favorisca la competitività e non la deprima. Di questo pare peraltro sia consapevole l’Unione europea, alla luce dell’“Innovation stress test” che l’attuale presidenza belga sembra intenzionata ad introdurre, ai fini della verifica di impatto preliminare. Quello che Altman evidenzia è inoltre la necessità di una governance adeguata per orientare e favorire lo sviluppo dell’IA. Dato il suo carattere globale, tale fenomeno deve essere affrontato ad un livello adeguato, quello internazionale, con un’apposita sede multilaterale in grado di stabilire standard condivisi.

Il Fondo Monetario Internazionale ha sottolineato che, come le altre rivoluzioni tecnologiche, anche quella dell’IA rischia di ingigantire le disuguaglianze. Esiste un modo per far sì che i suoi benefici vengano distribuiti equamente?

La globalizzazione dei sistemi economici espone i singoli Paesi a forti asimmetrie nei costi e nei benefici della regolazione delle applicazioni dell’IA in molti ambiti. Siamo di fronte a diversi paradigmi normativi, radicati in differenti valori e incentivi. Se il modello europeo è basato sui diritti, quello statunitense è fondato sul mercato e l’autoregolamentazione delle Big Tech, mentre in Cina – che può contare su investimenti illimitati e la disponibilità di ingenti quantità di dati, anche personali, raccolti a prescindere dal rispetto della normativa sulla privacy – l’IA diventa strumento di censura, sorveglianza e propaganda.

E l’Europa?

Ha una fondamentale funzione propulsiva e di guida. Quello che sta delineando con l’AI Act è un modello di riferimento, come è avvenuto nel 2016 con il regolamento sulla protezione dei dati personali. Ritengo che un sistema basato su trasparenza e responsabilità, per esempio stabilendo modalità condivise per la diffusione dei testi generati dall’IA, così come fanno i supermercati e le farmacie che mettono in vendita solo articoli con etichette che indicano la loro composizione e provenienza, possa contribuire a ridurre i rischi di discriminazione creati dall’IA e trovare il giusto equilibrio tra benefici e svantaggi.

Bill Gates è stato a Palazzo Chigi per discutere con Giorgia Meloni dei rischi dell’IA. A suo modo di vedere, quali sono i maggiori?

I chatbot basati sull’IA presentano il rischio di diffondere disinformazione e manipolare utenti per sottrarre loro informazioni personali. In tal senso i rischi possono essere sia materiali (con ricadute sulla salute e sicurezza delle persone, perdita di vite umane o danni patrimoniali) sia immateriali (privazioni della privacy, restrizioni alla libertà di espressione, nocumenti alla dignità umana o discriminazioni, per esempio nell’accesso all’occupazione). Ma soprattutto i sistemi di IA possono incidere sui meccanismi di formazione del consenso e sull’opinione pubblica in generale, arrecando pregiudizio alla stessa democrazia. Le fake news intorno alle elezioni presidenziali Usa del 2016 e lo scandalo Cambridge Analytica/Facebook sulla scia del referendum sulla Brexit mostrano gli impatti potenziali della tecnologia alimentata dall’IA sulla libera informazione e sui risultati delle consultazioni elettorali. Man mano che i modelli di intelligenza artificiale diventano più avanzati, le immagini che creano sono sempre più difficili da distinguere da quelle reali, rendendo difficile capire cosa sia vero. Se le immagini che ritraggono stereotipi amplificati di razza e genere dovessero rientrare nei modelli futuri come dati di addestramento, i modelli di IA di prossima generazione potrebbero creare un effetto a valanga di pregiudizi con delicate implicazioni per la società.

In base alle nuove regole europee, infatti, sono banditi i sistemi di IA che sfruttano le vulnerabilità delle persone, così come è vietata la polizia predittiva e il riconoscimento facciale in tempo reale negli spazi pubblici.

A ciò si aggiunga anche un tema di libertà e sovranità economica: specie per le applicazioni AI cc.dd. generative è necessario avere accesso ad alcuni input (in primis i dati). Come nota il “G7 Digital Competition Communiqué” adottato dalle autorità antitrust dei Paesi lo scorso novembre c’è il rischio che l’accesso e il controllo di questi input finisca in poche mani, creando situazioni di concentrazione economica ancora superiori rispetto quanto già esiste nel digitale con le note GAFAs (Google, Amazon, Facebook e Apple). D’altro canto, l’incremento della partecipazione di Microsoft in ChatGPT ha già destato attenzione a livello antitrust. Ciò detto, non penso che l’incontro a Palazzo Chigi abbia riguardato solo i rischi e gli aspetti negativi, ma si concentri soprattutto sui benefici che l’AI sarà in grado di apportare e le sinergie che potranno emergere da un proficuo ed equilibrato rapporto pubblico-privato.

Come si sta muovendo il governo sull’intelligenza artificiale?

Trovo importante che il governo abbia messo l’IA al centro del suo programma di presidenza del G7, a dimostrazione della consapevolezza delle rilevanti implicazioni del fenomeno e della necessità di affrontarlo nel modo più adeguato. Molto positiva la strategia industriale che sta delineando, volta a valorizzare le imprese nazionali e le startup, così da allineare il nostro Paese alle best practice a livello Ue (Francia, Germania e Spagna, che ha istituito nell’agosto 2023 un’agenzia dedicata all’IA), con un fondo di venture capital potenziato nelle sue disponibilità in grado di sostenere lo sviluppo delle imprese nazionali. Al riguardo, mi pare molto opportuno il dialogo avviato con le Big Tech, che sono i principali attori dell’IA. Sarà importante al riguardo aumentare gli investimenti nell’istruzione e nella formazione, che dovrà essere adattata allo sviluppo e alla ricerca legata all’IA, affrontando al contempo le delicate questioni relative alla proprietà intellettuale per proteggere il diritto d’autore e le opere dell’ingegno. In tal senso spunti interessanti si trovano nel Rapporto di aggiornamento del Piano strategico nazionale di ricerca e sviluppo sull’intelligenza artificiale Usa per il 2023, che ha rilanciato una strategia basata su formazione, hardware (semiconduttori, microchip) e investimenti all’innovazione con il coinvolgimento di partner industriali, mondo accademico e società civile.

Padre Paolo Benanti ha evidenziato la necessità di salvaguardare la figura del giornalista. Crede che l’IA sia un rischio per il giornalismo o può rappresentare un valore aggiunto?

Il giornalismo di qualità sarà rafforzato, non penalizzato, dalla diffusione dell’IA, i cui sistemi possono certamente assemblare notizie in modo rapido e sistematico. Ma nessun sistema di IA è in grado di fornire riflessioni, analisi e osservazioni critiche basate su sentimenti e coscienza, il “colore dell’intelligenza” secondo la filosofa Nussbaum. Ecco perché se si ritiene che compito precipuo e qualificante del giornalista sia quello di fornire al lettore valore aggiunto sotto forma di valutazioni e commenti, penso non via sia nulla da temere. Occorre peraltro garantire che le varie fonti informative siano affidabili e accurate. Al riguardo, l’Executive Order degli Stati Uniti di fine ottobre propone per le agenzie governative un sistema innovativo per identificare ed etichettare i contenuti prodotti dall’IA.


×

Iscriviti alla newsletter