La prima legge al mondo sull’Intelligenza Artificiale è stata approvata dal Parlamento europeo. “Funge da interfaccia tra l’innovazione tecnologica e i principi democratici”, spiega il responsabile del dipartimento cybersecurity dello studio legale Gianni&Origoni. Ora occorre trovare un approccio comune tra le esigenze di mercato, tipicamente americane, e la protezione dei diritti dei cittadini, aggiunge
“L’AI Act funge da interfaccia tra l’innovazione tecnologica e i principi democratici”, dice Stefano Mele, partner e responsabile del dipartimento cybersecurity & space economy law dello studio legale Gianni & Origoni, a Formiche.net commentando l’approvazione odierna, dopo due anni di negoziazione, da parte del Parlamento europeo, con 523 voti a favore, 46 contrari e 49 astensioni della prima legge al mondo sull’intelligenza artificiale.
Le dichiarazioni del relatore Benifei
“Siamo molto soddisfatti del risultato e dell’ampia maggioranza raggiunta”, ha dichiarato Brando Benifei, europarlamentare italiano e relatore del testo. “Il voto di oggi non è che un inizio: ora bisogna concentrarsi sull’attuazione, sugli investimenti, sulla condivisione delle capacità dei supercomputer e sul lavoro con i partner internazionali, per affermare un nostro modello di sviluppo dell’IA che metta l’essere umano davvero al centro”, ha aggiunto.
Il commento di Mele
“La legge interviene su quattro macro-aree”, spiega Mele: “Definisce le regole per l’emissione sul mercato e per l’impiego di sistemi di intelligenza artificiale; prevede il divieto di usare sistemi di intelligenza artificiale per specifiche pratiche; stabilisce i requisiti di trasparenza per specifici sistemi di intelligenza artificiale; stabilisce le misure a supporto dell’innovazione, con particolare attenzione a piccole e medie imprese e start-up. Alla base, ci sono le regole e le procedure per il monitoraggio, la sorveglianza del mercato e infine per l’erogazione delle sanzioni in caso di violazioni del regolamento”.
Cosa prevede la legge
Le nuove norme mettono fuori legge alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini come i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone. In linea di principio le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. La stessa prevede che i sistemi di intelligenza artificiale per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme dell’Unione europea sul diritto d’autore durante le fasi di addestramento dei vari modelli. Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.
Le misure a sostegno dell’innovazione e delle piccole e medie imprese
La legge prevede poi che i Paesi dell’Unione europea debbano istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), in modo che piccole e medie imprese e start-up possano sviluppare sistemi di intelligenza artificiale innovativi e addestrarli prima di immetterli sul mercato.
I prossimi passaggi
Ora il regolamento verrà sottoposto agli ultimi due passaggi prima di essere adottato definitivamente entro la fine della legislatura, ovvero a giugno: la verifica dei giuristi e dei linguisti e l’approvazione formale del Consiglio europeo. Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’Ue e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
Le sfide internazionali
“Una delle principali sfide dell’AI Act, come accaduto anche con il Gdpr in materia di privacy, è la necessità di sviluppare un ancor maggiore confronto tra l’Unione europea e gli Stati Uniti”, osserva Mele. “Serve, infatti, trovare un approccio comune tra le esigenze di mercato tipicamente americane e le esigenze di protezione dei diritti dei cittadini tipicamente europee”. Partendo proprio da quest’ultima considerazione, l’avvocato: “Tuttavia, sarebbe limitativo ridurre il ragionamento esclusivamente a questo aspetto. Occorre considerare che due attori, Stati Uniti e Cina, da anni investono miliardi di dollari sull’intelligenza artificiale, ovvero su quello che, a mio avviso, è uno tra i principali macro-trend tecnologici in grado di garantire la leadership globale nel prossimo futuro. L’Unione europea è oggi un attore non protagonista nel confronto tra queste due potenze. Pertanto, non potendo concorrere sul piano degli investimenti e dello sviluppo tecnologico nel settore dell’intelligenza artificiale, la strategia scelta dall’Unione europea è quella di provare a condizionare attraverso le norme la ‘corsa’ di Stati Uniti e Cina”.