Quanto partorito dal trilogo delle istituzioni europee è un qualcosa di “storico”. Se il testo diventerà legge, Bruxelles potrebbe diventare un modello di riferimento anche per Stati Uniti e Cina. Tuttavia, c’è chi parla di accordo a metà per via delle insufficienti tutele a difesa dei cittadini e dei paletti troppo stringenti per le aziende
L’accordo “storico”, come l’ha definito il commissario al mercato interno Thierry Breton, è stato raggiunto dopo trentotto ore di confronti e si appresta a diventare un turning point nell’era tecnologica, rendendo l’Unione europea un modello persino per Stati Uniti e Cina. Certo, prima di cantar vittoria bisognerà aspettare la stesura del testo definitivo, il successivo accordo e infine la sua messa in pratica, che avverrà tra almeno due anni. Il percorso è dunque lungo ma dai negoziati del trilogo – avvenuti tra Commissione europea, Parlamento e Consiglio europeo – è emersa la volontà di gestire gli strumenti generati con l’IA, soprattutto quella generativa che con ChatGpt ha rivoluzionato il mondo. Non in ottica negativa ma, al contrario, per cercare di sfruttare tutti i suoi benefici riducendo possibilmente a zero gli impatti malevoli.
Il principio cardine alla base di questo pacchetto è infatti la difesa dei diritti individuali, in un momento in cui la digitalizzazione potrebbe rappresentare un pericolo per l’uomo. Inclusi in questo insieme ci sono ovviamente anche i sistemi di IA che potrebbero influenzare i risultati elettorali, proprio alle porte di un anno (il 2024) in cui le elezioni in tutto il mondo giocheranno un ruolo di primo piano. “Questo regolamento mira a garantire che i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale siano protetti dall’IA ad alto rischio, promuovendo al contempo l’innovazione e rendendo l’Europa leader nel settore”, si legge in un comunicato del Parlamento europeo. Pertanto, ai cittadini sarà garantito il diritto di reclamo e di ottenere le dovute informazioni sul funzionamento degli strumenti.
L’approccio dell’AI Act è dunque fondato sul rischio: più è alto, più le General Purpose (Gpai) — o Foundation Models — saranno soggette a regole ex ante stringenti per chiarire i tecnicismi con cui sono stati addestrati gli algoritmi e costruiti i prodotti, prima che finiscano sul mercato. Tra questi, ChatGPT, Bard e Midjourney, andando così a includere i sistemi di chatbot che rappresentano il problema principale. Per quelli con una potenza di rischio inferiore, invece, è stata concessa la commercializzazione, salvo intervenire nel caso venissero riscontrati problemi.
Per arrivare a questa soluzione si sono però dovuti superare alcuni scogli. Quelli più alti erano rappresentati da Francia, Germania e Italia, che chiedevano un’autoregolamentazione così da salvaguardare le proprie aziende e start-up: a convincerle, probabilmente, l’espressa volontà di Bruxelles di voler incentivare con l’AI Act le piccole e grandi aziende presenti sul suo territorio, per arrivare a una vera concorrenza a quelle americane e asiatiche – tanto per dirne un paio, sono stati concessi incentivi alle Pmi e la ricerca è esentata da alcuni provvedimenti per favorire il progresso.
Inoltre, continua il comunicato del Parlamento europeo riferendosi a quei modelli che potrebbero presentare rischi sistemici, “se questi soddisfano determinati criteri dovranno condurre analisi sui modelli, valutare e mitigare i rischi, condurre test contraddittori, riferire alla Commissione su gravi incidenti”. Come si vociferava durante le trattative, il ramo esecutivo guidato dalla presidente Ursula von der Leyen si doterà di un proprio ufficio apposito per valutare le relazioni che riceverà.
Per farsi rispettare, Bruxelles ha deciso una serie di sanzioni per chi violerà la futura legge. Le multe oscilleranno da 7,5 milioni di euro o l’1,5% del fatturato annuale fino a 35 milioni di euro o il 7,5% delle entrate annuali complessive. Come per il rischio, anche qui più sarà grave la trasgressione più alta sarà la sanzione.
Se l’Europa è riuscita a imporre il suo pensiero sulla regolamentazione in base al rischio, contrariamente a quanto avrebbero voluto alcuni Paesi membri, per arrivare a un compromesso ha dovuto compiere un passo indietro sull’utilizzo dell’IA Generativa in termini di identificazione biometrica nei luoghi pubblici. Alcuni dei presenti alle trattative hanno parlato del nodo più difficile da sciogliere, anche perché rientravo questioni di politica nazionale. Stati come Italia, Ungheria e Francia volevano utilizzare questi sistemi per questioni di sicurezza, con Parigi che si appresta ad ospitare le prossime Olimpiadi e pertanto vuole alzare ancor di più le barriere. La contrarietà delle istituzioni europee è stata ammorbidita e ridotta a casi eccezionali: terrorismo, identificazione di criminali o presunti tali o ricerca delle vittime. Ovviamente, le forze dell’ordine dovranno spiegare alle autorità di competenza come e perché si sono servite dell’IA.
Quindi, l’IA Generativa non potrà essere utilizzata per analisi di dati sensibili (ideale politico, fede professata, nazionalità e via dicendo), riconoscimento emotivo, polizia predittiva o creazione di dataset dal riconoscimento facciale.
Purtuttavia, non tutti sono soddisfatti dell’accordo. Oltre a Anitec-Assinform, che ha lamentato degli eccessivi paletti per le aziende, e alla delusione dell’Organizzazione europea dei consumatori (Beuc) che avrebbe fatto di più per la salvaguardia dei cittadini, vanno registrate anche le parole dell’Associazione dell’industria dei computer e delle comunicazioni (CCIA Europe), che loda il duro lavoro dell’Europa ma sottolinea alcuni aspetti mancanti nell’accordo. “Il testo finale si discosta ampiamente dall’approccio sensato basato sul rischio proposto dalla Commissione, che ha privilegiato l’innovazione rispetto a una regolamentazione eccessivamente prescrittiva”. L’AI Act “impone obblighi rigorosi agli sviluppatori di tecnologie all’avanguardia che sono alla base di molti sistemi a valle ed è quindi probabile che rallenti l’innovazione in Europa”. Questo perché “alcuni sistemi di IA a basso rischio saranno ora soggetti a requisiti rigorosi senza ulteriori giustificazioni, mentre altri saranno del tutto vietati”.
A sintetizzare il pensiero è stato poi Daniel Friedlaender, vicepresidente senior a capo della CCIA Europe: “Purtroppo la velocità sembra aver prevalso sulla qualità, con conseguenze potenzialmente disastrose per l’economia europea. L’impatto negativo potrebbe essere avvertito ben oltre il solo settore dell’intelligenza artificiale”.