Skip to main content

Intelligenza artificiale, ecco come si sta muovendo l’Europa

Di Luisa Torchia

Il legislatore europeo è consapevole del fatto che i sistemi di intelligenza artificiale sono ben lontani dal costituire un settore maturo e sono, anzi, in continua evoluzione. Questa evoluzione produce vantaggi come rischi. Pubblichiamo un estratto dal libro dal titolo “Lo Stato digitale” (Il Mulino) scritto da Luisa Torchia, professoressa di Diritto amministrativo presso la facoltà di Giurisprudenza dell’Università Roma Tre

La proposta di regolamento europeo sull’intelligenza artificiale è stata adottata dopo un lungo processo di analisi e di consultazione da parte delle istituzioni europee e a seguito dell’adozione di numerosi atti di soft law – linee guida, libri bianchi, risoluzioni – mediante i quali si sono via via definiti la ratio, l’oggetto e l’ambito di applicazione delle nuove regole.

I principali obiettivi del nuovo assetto regolatorio sono tre:

• introdurre un sistema di controllo che consenta di verificare la conformità dei sistemi di intelligenza artificiale ai valori e ai diritti fondamentali assicurati nell’Unione;

• definire un quadro regolatorio che assicuri almeno un certo grado di uniformità e di certezza del diritto e allo stesso tempo non ostacoli gli investimenti e l’innovazione nel settore;

• costruire un sistema di governance efficace ai fini della sicurezza dell’intelligenza artificiale e che superi la frammentazione del mercato unico che potrebbe derivare da legislazioni nazionali non coordinate.

Il legislatore europeo è consapevole del fatto che i sistemi di intelligenza artificiale sono ben lontani dal costituire un settore maturo e sono, anzi, in continua evoluzione. Questa evoluzione produce vantaggi come rischi ed è di conseguenza necessario assicurare un equilibrio dinamico fra regolazione e innovazione, fra costi e sviluppo, fra vincoli e incentivi.

La logica di fondo che ispira la proposta di regolamento è quindi duplice. Per un verso la disciplina è definita in termini molto ampi quanto all’oggetto e all’ambito di applicazione. Per altro verso la disciplina è ispirata al principio di proporzionalità e indica quindi solo i requisiti minimi per l’ammissibilità nell’ordinamento europeo dei sistemi di intelligenza artificiale e calibra questi requisiti in ragione del tipo di rischio connesso ai diversi tipi di strumenti.

L’obiettivo principale del regolamento è, quindi, di non impedire l’innovazione, ma di tutelare i diritti che potrebbero essere danneggiati o violati dall’intelligenza artificiale, costruendo un processo di gestione del rischio, con la duplice finalità di rendere i soggetti responsabili di ciò che fanno e comunque consapevoli del fatto che ci sarà una responsabilità e di ottenere informazioni su ciò che fanno, in modo da non trovarsi di fronte improvvisamente a prodotti nuovi, al fine di correggere la tipica asimmetria informativa fra regolatore e regolato.

La definizione dell’oggetto della regolazione è molto ampia e ha natura descrittiva piuttosto che tecnica: non a caso la norma rinvia ad un elenco di strumenti contenuto in un allegato al regolamento. È soggetto quindi al regolamento ogni “sistema di intelligenza artificiale”, identificato come “un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”.

Anche l’ambito di applicazione è definito secondo criteri molto ampi. Quanto al criterio territoriale, come già previsto per i regolamenti sui mercati e sui servizi digitali, la disciplina si applica a qualsiasi sistema di intelligenza artificiale commercializzato o utilizzato all’interno del mercato unico, indipendentemente dalla sua origine o costruzione fuori dall’Unione.

In questo caso, però, il legislatore europeo ha preso in considerazione anche la cosiddetta “catena del valore” dell’intelligenza artificiale, e cioè tutti i soggetti che a qualche titolo sono coinvolti nella produzione, commercializzazione o utilizzazione dei relativi strumenti. È stato inserito, quindi, anche un criterio di applicazione soggettiva, in base al quale la disciplina si applica non solo ai programmatori, ai disegnatori, ai produttori e ai fornitori – indipendentemente dal fatto che siano stabiliti nell’Unione o in un Paese terzo – ma anche agli utenti dei sistemi di intelligenza artificiale situati nell’Unione o persino in un paese terzo se l’output del sistema è utilizzato nell’Unione. Il criterio soggettivo di applicazione è, inoltre, esteso ai soggetti pubblici come ai soggetti privati, indipendentemente dalle diverse regole di azione in genere valide per l’azione pubblica rispetto all’attività privata.

La definizione dei vincoli e dei requisiti applicabili ai sistemi di intelligenza artificiale si basa sulla valutazione del tipo di rischio connesso a quei sistemi, con regolazione differenziata a seconda della intensità del rischio. Il regolamento individua tre tipi di rischio: il rischio inaccettabile, il rischio alto e il rischio basso o minimo.

I casi di intelligenza artificiale ai quali è connesso, di volta in volta, ciascun tipo di rischio sono individuati mediante due strumenti: una definizione normativa che individua in generale le caratteristiche della categoria ed elenchi di attività e strumenti, inseriti in allegati al regolamento. Questi ultimi possono essere modificati e aggiornati, in ragione di futuri sviluppi, direttamente dalla Commissione, senza riattivare l’intero processo regolamentare.

Si è cercato così di raggiungere un equilibrio fra la stabilità e la flessibilità dell’assetto regolatorio, per evitare sia di dettare regole troppo vacue, sia di irrigidire eccessivamente un settore caratterizzato quasi per definizione dalla capacità innovativa. Il regime del rischio è articolato a seconda della gravità del pericolo di effetti nocivi in tre diverse configurazioni.

Per i sistemi a rischio basso o minimo sono previsti soltanto oneri di informazione. I regimi ad alto rischio sono soggetti ad una disciplina che prevede requisiti e obblighi specifici. I sistemi che comportano rischi inaccettabili sono sottoposti, infine, ad un regime di divieto salvo deroghe espresse. Si può esaminare di seguito rapidamente la disciplina di divieto per i sistemi che comportano rischi inaccettabili, per poi analizzare le regole più dettagliate relative ai sistemi ad alto rischio, che costituiscono il cuore della regolazione.

A questo link la scheda del volume “Lo Stato digitale”

×

Iscriviti alla newsletter