Skip to main content

Per capire il regolamento Ue sull’IA serve ChatGPT. Il paradosso secondo Malaschini

Di Antonio Malaschini

Il rischio è che un corpus normativo di 300 pagine, con centinaia di articoli frutto di complicate mediazioni, più che chiarezza generi confusione e conflittualità nella sua applicazione. Il commento dell’avvocato Antonio Malaschini, già segretario generale del Senato della Repubblica

Nei primi mesi del 2018 (sei anni fa), dopo una complessa consultazione, viene costituito dalla Commissione europea un “High-Level Expert Group” di 52 persone che, dopo aver presentato nel 2019 una sua relazione, contribuisce a produrre l’anno successivo un “Libro Bianco”. Omisso medio, la Commissione europea nell’aprile del 2021 avanza una propria proposta, basata sul principio del rischio: maggiori i rischi nell’uso dei sistemi di intelligenza artificiale (si badi, nell’uso e non nelle loro intrinseche caratteristiche), più rigorosa la disciplina. L’8 dicembre 2023, dopo una discussione che sembra abbia vissuto momenti di difficoltà, addirittura con l’allontanamento temporaneo dal tavolo del confronto della delegazione del Parlamento europeo, viene finalmente raggiunto a conclusione del previsto trilogo un “accordo politico” tra Commissione europea, Parlamento europeo e Consiglio dell’Unione europea.

Al momento, dopo più di 50 giorni da una intesa definita storica, non si conosce il risultato ufficiale di tale accordo che avrebbe dovuto essere solo sottoposto, come detto da qualcuno, a una semplice operazione di drafting. Un drafting peraltro certamente complesso, visto che dovrebbe trattarsi di un testo che, in base a una bozza pirata che abbiamo potuto esaminare, si compone al momento di quasi 120 considerata iniziali, di oltre 90 lunghissimi articoli (il comma 5g dell’articolo 2, per esempio, ha circa 80 complicate lettere, e non è il solo), di una decina di “annessi”: una gioia, ci si consenta dirlo, per chi dovrà applicarlo e per chi dovrà quindi farlo rispettare. Sorvoliamo sul fatto che il testo a fronte con le posizioni di Commissione, Parlamento e Unione, indispensabile per interpretare la genesi e l’evoluzione delle norme, raggiunge le 900 pagine. Servirà forse rivolgersi a ChatGPT per averne una versione semplificata.

Le questioni che sembra stiano rallentando la definizione del testo partono quasi tutte dall’ormai radicato conflitto tra chi, come il Parlamento europeo, pone in primo piano la tutela dei diritti individuali e collettivi di fronte all’intelligenza articolate, e quei Paesi che all’interno della Commissione e del Consiglio (Francia, Germania e sembra anche Italia) sostengono invece la necessità di una normativa più elastica che sappia coniugare la richiamata tutela dei diritti con lo sviluppo tecnologico: a cominciare dalla stessa definizione dell’intelligenza artificiale. E ciò specialmente in presenza di nazioni che invece non pongono limiti normativi espressi ma preferiscono adottare indirizzi e linee guida per la produzione e l’utilizzo dell’intelligenza artificiale, rafforzati da finanziamenti cospicui.

In mancanza di un testo ufficiale, possiamo al momento solo ricordare le scadenze temporali che in ogni caso dovranno accompagnare la normativa, riservandoci poi un commento finale. L’entrata in vigore è prevista 20 giorni dopo la pubblicazione sul Journal Officiel; le norme sulle pratiche proibite saranno effettive sei mesi dopo; quelle sull’intelligenza artificiale con finalità generali 12 mesi; l’atto nel suo complesso 24 mesi dopo, quindi nel 2026: ben otto anni, come sopra ricordato, dall’inizio del processo che dovrebbe finalmente condurre alla normativa in corso di definizione.

Va sottolineato che una delle ragioni che hanno contribuito a determinare il ritardo dell’iter legislativo è stato il rapido sviluppo tecnologico nella ricerca e nell’applicazione dell’intelligenza artificiale: facciamo, per esempio, riferimento ai large language models, all’intelligenza artificiale generativa, ai foundation models, e in particolare al lancio da parte di OpenAI, a novembre 2022, di ChatGPT, ben dopo l’inizio del processo legislativo europeo.

Achille e la tartaruga? Siamo proprio sicuri che il modo migliore per rincorrere e disciplinare questo rivoluzionario strumento sia il ricorso a norme chilometriche, rigide, complicate e frutto di compromessi faticosi che una ricerca scientifica in rapidissimo sviluppo rischia di rendere obsolete e inapplicabili nel giro di pochi mesi? O non è forse meglio l’esempio di chi, come Regno Unito e Stati Uniti, nel solco di un antico pragmatismo fa uso  di un modello normativo e giudiziario che sa tutelare diritti e libertà; accompagnato da indirizzi capaci di guidare e indirizzare la ricerca, senza tuttavia costringerla entro limiti che lo sviluppo tecnologico renderà appunto presto obsoleti e inapplicabili?

Sappiamo bene che non è una scelta facile, e che comprensibili sono le preoccupazioni, etiche e giuridiche, di chi giustamente teme i rischi di uno strumento dalle enormi potenzialità ma dagli altrettanto elevati rischi: per le persone e per i sistemi sociali. Da cui la richiesta di una disciplina rigorosa.

Il pericolo che paventiamo, e ci auguriamo di essere smentiti, è però che un corpus normativo di 300 pagine, con centinaia di articoli frutto come detto di complicate mediazioni, più che chiarezza generi confusione e conflittualità nella sua applicazione: tra gli organismi dell’Unione deputati ad applicarlo e i singoli Stati; tra i produttori interni e gli organismi di verifica; nei mercati e tra i cittadini utilizzatori. Allontanando quindi, piuttosto che favorendo, la prospettiva di una credibile e affidabile “intelligenza artificiale” europea.

Mentre, come la cronaca quotidianamente ci racconta, società di ricerca, produzione e commercializzazione di dimensioni pluristatuali creano strumenti la cui natura e i cui effetti sembrano sfuggire al controllo di modelli normativi di millenaria origine; strumenti che Stati autoritari e senza scrupolo sono invece pronti a utilizzare, ignorando qualsiasi ipotesi di controllo interno o di intesa sovranazionale.

Un quadro che proprio l’arrancare dell’incerto processo normativo europeo rende oggi ancora più pericoloso.



×

Iscriviti alla newsletter