Skip to main content

Il Regolamento Ue sull’AI spiegato dagli avvocati Cannella e Barbarino

Di Giuseppe M. Cannella e Barbara Barbarino
Intelligenza artificiale

La rigida posizione del legislatore europeo è contestata anche da chi ritiene che i divieti introdotti limitino oltremodo l’evoluzione tecnologica. Ma il progresso scientifico trova il proprio limite nel rispetto della persona. L’intervento degli avvocati Giuseppe M. Cannella, socio fondatore dello Studio Associato LCG – Lecis Cannella Grassi, e Barbara Barbarino, dello stesso studio

Il 14 giugno 2023, con il voto favorevole del Parlamento europeo, l’Artificial Intelligence Act (la proposta di Regolamento europeo sull’Intelligenza artificiale) è entrato nella fase conclusiva dell’iter per la sua approvazione definitiva che si avrà con il voto del Consiglio europeo atteso, entro la fine dell’anno in corso, a conclusione dei negoziati tra gli Stati dell’Unione europea. Non è un caso che la scelta di disciplinare la complessa materia dell’Intelligenza artificiale sia ricaduta sul Regolamento europeo, trattandosi quest’ultimo di un atto normativo che, essendo vincolante e direttamente applicabile in tutti gli Stati membri dell’Unione, ha una forza “dirompente” rispetto alla normativa nazionale che, in alcuni casi, costituisce il presupposto nella scelta delle aziende di operare in determinati Stati ove le regole di settore sono meno vincolanti.

Già da cinque anni, l’Unione europea, con il proprio Regolamento in materia di privacy (Gdpr 2016/679), ha sperimentato l’efficacia di tale scelta normativa che rappresenta un unicum di regole preso come modello anche oltre i confini europei. La proposta di testo dell’Artificial Intelligence Act intende raggiungere l’arduo obiettivo di trovare un equilibrio tra una regolamentazione dei sistemi di Intelligenza artificiale che sia in grado di tutelare il cittadino nei suoi diritti fondamentali e l’esigenza di non arrestare l’innovazione e lo sviluppo tecnologico. L’Intelligenza artificiale, quale tecnologia antropocentrica, non deve sostituire l’autonomia umana o presupporre la perdita della libertà individuale, ma dovrebbe essere posta sempre al servizio dei cittadini e delle aziende.

L’Eurocamera ha, infatti, espressamente evidenziato come lo scopo dell’Artificial Intelligence Act sia quello di “promuovere la diffusione di un’intelligenza artificiale antropocentrica” che debba essere, in quanto tale, “affidabile” e capace di “garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell’ambiente” e, allo stesso tempo, in grado di impedire limitazioni allo sviluppo, alla commercializzazione e all’uso di sistemi di Intelligenza artificiale. Al fine di assicurare un approccio responsabile verso l’Intelligenza artificiale, il Parlamento europeo amplia l’elenco dei sistemi di Intelligenza artificiale a rischio inaccettabile, intendendo, così, garantire al mercato un loro utilizzo sicuro e trasparente attraverso l’introduzione di divieti maggiormente rigorosi in relazione allo specifico rischio agli stessi riferibile.

Quali allora le principali novità introdotte?

  • Divieto assoluto – senza possibilità di eccezioni – di utilizzo di sistemi di identificazione biometrica remota “in tempo reale” in aree accessibili al pubblico.

Mentre, rimarrebbero consentiti i sistemi di identificazione biometrica a distanza “a posteriori” ove strettamente necessari per la ricerca connessa a uno specifico reato grave già avvenuto e previa autorizzazione giudiziaria.

  • Divieto di categorizzazione biometrica basata su caratteristiche sensibili; tale divieto non si applica ai sistemi di Intelligenza artificiale destinati ad essere utilizzati per scopi terapeutici.
  • Divieto di sistemi di polizia predittiva.
  • Divieto di sistemi di riconoscimento delle emozioni.
  • Divieto di estrazione indiscriminata di dati biometrici da Internet o da telecamere di sicurezza per creare database di riconoscimento facciale.
  • Divieto di sistemi progettati per rivolgersi a utenti considerati vulnerabili (ad esempio i bambini) e idonei a realizzare una manipolazione subliminale, come giocattoli o dispositivi che incoraggiano comportamenti pericolosi o dannosi.

L’obiettivo europeo è chiaro: bandire i sistemi di Intelligenza artificiale che implicano un livello di rischio inaccettabile, in modo da garantire lo sviluppo e l’utilizzo di un’Intelligenza artificiale eticamente integrata sia con i valori su cui si fonda l’Unione europea che con la Carta dei diritti fondamentali dell’Unione europea.

Nell’attesa dell’entrata in vigore dell’Artificial Intelligence Act, prevista per il 2025, tutte le aziende produttrici/fornitrici/utilizzatrici di sistemi di Intelligenza artificiale dovranno iniziare, sin da subito, ad adeguarsi alla nuova normativa europea, attraverso un graduale processo di compliance volontaria al Regolamento europeo, per prevenire e gestire i rischi connessi alle peculiarità del modello Intelligenza artificiale utilizzato. Molteplici sono gli aspetti coinvolti che dovranno essere attentamente considerati dalle aziende: privacy, sicurezza informatica, proprietà intellettuale, sicurezza dei prodotti di Intelligenza artificiale (es. dispositivi medici), tutela del consumatore, responsabilità civile in caso di danni. Con particolare riguardo all’aspetto privacy, poiché un sistema di Intelligenza artificiale spesso agisce sulla base di grandi volumi di dati personali, il Parlamento europeo ritiene opportuno richiamare l’articolo 16 del Trattato sul funzionamento dell’Unione europea, che prevede l’adozione di regole per la protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle istituzioni dell’Unione e degli Stati membri nell’esercizio di attività che rientrano nel campo di applicazione del diritto europeo. Le imprese devono avvalersi di competenze specifiche e fornire informative sempre più trasparenti, nonché attivare procedure che consentano al soggetto interessato di far valere i propri diritti.

Il Parlamento europeo intende assicurare anche l’armonizzazione dell’Artificial Intelligence Act con la legislazione europea in materia di protezione dei consumatori e sicurezza dei prodotti, affinché solo prodotti sicuri possano essere immessi sul mercato. È importante che i rischi per la sicurezza, che un sistema di Intelligenza artificiale potrebbe generare, siano debitamente prevenuti e attenuati. L’Europarlamento osserva, nello specifico, come i robot sempre più autonomi, nel contesto della cura e dell’assistenza alle persone, dovrebbero operare in condizioni di sicurezza in ambienti complessi. Analogamente, nel settore sanitario “in cui la posta in gioco per la vita e la salute è particolarmente elevata, si richiede che i sistemi diagnostici e i sistemi di sostegno delle decisioni dell’uomo, sempre più sofisticati, siano affidabili e accurati”.

La Camera di Strasburgo, allo scopo di garantire un’equa ripartizione della responsabilità civile in caso di danni, ritiene essenziale normare il ruolo dei singoli protagonisti del processo di sviluppo di un sistema di Intelligenza artificiale e prevedere, altresì, obblighi di informazione, misure per lo sviluppo di un livello adeguato di alfabetizzazione in tutti i settori dell’Intelligenza artificiale, anche attraverso l’istruzione e la formazione, nell’ottica di consentire un controllo democratico dei sistemi di Intelligenza artificiale. Queste sono solo alcune delle proposte approvate dal Parlamento europeo, ma bastano a dare l’idea della complessità dell’Artificial Intelligence Act, sia per gli aspetti tecnologici che per quelli etici coinvolti, rappresentando la prima norma al mondo per la regolamentazione dei sistemi di Intelligenza artificiale.

La presidente dell’Europarlamento, Roberta Metsola, ha con fierezza scritto su Twitter: “Proud that @Europarl_EN has just approved the world’s first Artificial Intelligence Act” definendo l’Artificial Intelligence Act come “una legislazione equilibrata e incentrata sull’uomo che definirà lo standard globale per gli anni a venire”.

È lo stesso Parlamento europeo che, in considerazione dei potenziali cambiamenti nell’uso dei sistemi di Intelligenza artificiale, propone come l’elenco dei settori ad alto rischio debba essere, comunque, oggetto di riesame attraverso una analisi periodica per potere andare di pari passo con la rapidità dello sviluppo tecnologico. Tuttavia, nonostante Strasburgo abbia avvertito come indispensabile una valutazione continua dei sistemi di Intelligenza artificiale ad alto rischio, è inevitabile chiedersi: l’Europa sarà in grado in futuro di guidare l’innovazione con una regolamentazione che sia al passo con un sempre più veloce mutamento tecnologico?

Altro interrogativo, che molti addetti ai lavori si sono posti, è se sia realmente necessario uno specifico Regolamento europeo sull’Intelligenza artificiale o se, invece, non sia sufficiente regolare la materia utilizzando tutti gli strumenti normativi di settore introdotti dall’U.E. negli ultimi anni. In particolare, coloro che hanno mostrato qualche dubbio sull’effettiva utilità di un Regolamento Intelligenza artificiale hanno osservato che: il Regolamento privacy disciplina la tutela dei dati personali; le materie della tutela dei consumatori, della sicurezza dei prodotti e della responsabilità civile sono regolamentate attraverso il combinato disposto di norme europee e interne.

A nostro parere, le rigorose scelte assunte dal legislatore e confluite nella proposta dell’Artificial Intelligence Act trovano piena giustificazione, rappresentando il nuovo Regolamento europeo quell’argine necessario ai rischi dell’Intelligenza artificiale più volte annunciati ed, altresì, costituendo un utile strumento normativo per la creazione di un mercato unitario ed omogeneo dei sistemi di Artificial Intelligence. La rigida posizione del legislatore europeo è contestata anche da chi ritiene che i divieti introdotti limitino oltremodo l’evoluzione tecnologica; ma il progresso scientifico, che ha soltanto un ruolo strumentale per il soddisfacimento dei bisogni dell’uomo, trova, proprio per tale ragione, il proprio limite nel rispetto della persona e il compito della politica è proprio quello di garantire, attraverso le proprie scelte, i valori ed i diritti dell’uomo. Il tema dell’Intelligenza artificiale rappresenta, innanzitutto, una questione etica o, come meglio detto da Papa Francesco, un’algoretica da intendersi come la piena consapevolezza dei problemi e dei risvolti etici connessi all’applicazione degli algoritmi.



×

Iscriviti alla newsletter