L’Eurocamera ha approvato (a stragrande maggioranza) il tentativo più ambizioso al mondo di affrontare il rischio legato alle applicazioni AI. L’obiettivo è varare il regolamento finale entro le elezioni del 2024, e lavorare di concerto con i partner per mantenere lo sviluppo dell’AI su binari democratici. Ecco i contenuti

Mercoledì la stragrande maggioranza del Parlamento europeo ha adottato la posizione ufficiale sull’AI Act, concludendo un confronto durato due anni (che ha assunto nuova urgenza dall’avvento di ChatGpt) e imprimendo un forte impulso alla volontà delle istituzioni europee di guidare il mondo nella regolamentazione dell’intelligenza artificiale. La mossa apre alla fase negoziale con Consiglio e Commissione Ue che porterà alla stesura definitiva della prima legge omnicomprensiva sull’IA. Nelle intenzioni dei legislatori il processo dovrebbe chiudersi entro fine mandato – le elezioni del 2024 – ed entrare in vigore nel giro di due anni.

Subito dopo il voto, in conferenza stampa, la presidente del Parlamento Ue Roberta Metsola ha parlato di un “approccio equilibrato e incentrato sull’essere umano” che “senza dubbio definirà lo standard globale” della regolamentazione IA. Il tutto si basa sul valutare il livello di rischio per la salute, la sicurezza e i diritti fondamentali, ha spiegato Brando Benifei (capogruppo del Pd al Parlamento Ue e relatore del testo), passando dal “vietare i rischi inaccettabili” per la società, che secondo gli europarlamentari rappresentano le applicazioni IA che “vanno contro i valori fondamentali dell’Ue”.

SVILUPPO DEMOCRATICO, ASSIEME AGLI ALLEATI

Non che il respiro dell’AI Act sia limitato al qui e ora: il testo guarda anche al futuro, ha continuato l’europarlamentare, ponendo delle basi avanzate in materia di regolamentazione dei modelli di IA generativa, general-purpose AI e i modelli fondamentali. Il tutto nel solco della collaborazione con gli alleati internazionali, come ha sottolineato l’altro capo-relatore Dragoş Tudorache. “Non crediamo che l’effetto Bruxelles sia sufficiente, perché questa tecnologia è la stessa ovunque e dobbiamo lavorare con altre democrazie like-minded per assicurarci di raggiungere un allineamento”. A partire dal Codice di condotta immaginato al G7 di Hiroshima.

IL DIBATTITO SULLA SORVEGLIANZA

Un dilemma è stato al centro delle dei dibattiti dell’ultimo minuto, hanno spiegato gli europarlamentari in conferenza stampa: capire quali tipi di applicazioni IA dovrebbero essere vietati in toto e quali ammessi nel quadro di un rigoroso regime di sorveglianza che ne monitori il funzionamento. L’ultima contesa ha riguardato l’identificazione biometrica a distanza, una pratica che in Paesi come la Cina si traduce in tecno-sorveglianza di massa. Con un emendamento, il Partito popolare ha cercato di ammettere deroghe al divieto di utilizzarla in tempo reale per circostanze eccezionali, come atti terroristici o persone scomparse. Alla fine ha prevalso la linea dei liberali e dei progressisti: utilizzo in tempo reale vietato, ma ammesso a posteriori per le indagini su reati gravi.

IL CONFINE TRA RISCHIOSO…

Come già raccontato su queste colonne, l’approccio delineato dall’AI Act è basato sul livello di rischio di un’applicazione IA e mira a esercitare un controllo progressivamente rigido su quelle che potrebbero arrecare danni all’essere umano e alla società. Le categorie a rischio includono la gestione di infrastrutture critiche come l’energia o l’acqua, il sistema legale, i servizi pubblici e la pubblica amministrazione, ma anche i sistemi di raccomandazione contenuti dei principali social media sono stati classificati come “ad alto rischio”.

… E VIETATO

Tra le pratiche proibite dall’IA Act sono stati inclusi diversi settori ad altissimo rischio (e dal sapore distopico) come applicazioni di categorizzazione biometrica, controllo predittivo, tecniche subliminali e riconoscimento delle emozioni nei campi dell’ordine pubblico, della gestione delle frontiere, del posto di lavoro e dell’istruzione. Gli obblighi dei fornitori di IA ad alto rischio in materia di gestione del rischio, governance dei dati e documentazione tecnica sono stati resi più prescrittivi. Sono stati introdotti nuovi requisiti per condurre valutazioni d’impatto sui diritti fondamentali e monitorare l’impatto ambientale.

IL “COME”

Starà ai fornitori condurre valutazioni di rischio prima di rendere le loro applicazioni IA disponibili, un po’ come accade con il processo di approvazione dei farmaci. Quelli che offriranno applicazioni ad alto rischio saranno sottoposti a obblighi in materia di gestione del rischio, governance dei dati e documentazione tecnica. Il testo prevede anche l’istituzione di un Ufficio IA per il coordinamento dei casi transfrontalieri. Tuttavia, Tudorache ci ha tenuto a specificare che il Parlamento non intende soffocare lo sviluppo dell’IA con la regolamentazione, e anzi vuole favorirlo: l’europarlamentare ha parlato di un processo di “definizione di standard dal basso verso l’alto”, in modo che chi sviluppa abbia voce in capitolo.

L’IA GENERATIVA

L’ultima grande rivoluzione digitale è inevitabilmente diventata il fulcro degli ultimi mesi di dibattito nel parlamento europeo. La versione finale del testo specifica che le applicazioni basate sull’IA generativa, come i chatbot, dovranno soddisfare nuovi requisiti di trasparenza. Ciò include la pubblicazione di sintesi del materiale protetto da copyright utilizzato per l’addestramento dei modelli linguistici, una proposta sostenuta dall’industria editoriale ma osteggiata dagli sviluppatori tecnologici. I fornitori dovranno anche adottare misure di salvaguardia per evitare, per esempio, che le loro applicazioni generino contenuti illegali. Ci sono anche a misure come l’etichettatura per i contenuti generati dall’IA.

GENERAL-PURPOSE AI

La dicitura si riferisce a sistemi di IA generica, ossia non legata a un particolare scopo (come la generazione di testo) ma in grado di svolgere una vasta gamma di ruoli. La vera Intelligenza artificiale generale, da un certo punto di vista. I legislatori europei hanno introdotto un approccio scaglionato di rischio per questa IA generica e un regime di controllo più severo per i modelli fondamentali, ossia quelli su cui possono essere costruiti altri sistemi di IA. Visti gli effetti dirompenti di applicazioni come ChatGPT, Benifei ha spiegato che il Parlamento pensa di anticipare i tempi di applicazione di questa sezione.

Condividi tramite