Tra benefici e rischi, la tecnologia corre più veloce dell’uomo. Ecco perché l’AI Act europeo è già una pietra miliare, sebbene deve essere perfezionato e ampliato a più attori possibile. Formiche ne ha parlato nel suo live talk con l’europarlamentare Benifei, da Empoli (I-Com), Caputo (Polito) e i rappresentanti di Ibm, Engineering e Google
“Siamo nella fase in discesa, il testo c’è e lo pubblicheremo in tempo congruo. Mancano ancora alcuni elementi tecnici, ma nell’insieme c’è e andrà al voto finale in tempi brevi”. A dirlo intervenendo al live talk di Formiche “Cosa cambia con l’AI Act. Scenari e opportunità”) è stato l’eurodeputato Brando Bonifei, capogruppo del Partito democratico e relatore del Regolamento sull’intelligenza artificiale al Parlamento europeo, reduce dalla lunga maratona di 38 ore per raggiungere un’intesa sabato. Secondo lui, è realistico affermare che “il Consiglio dia un via libera definitivo a gennaio e noi dopo voteremo il testo in commissione e in plenaria. Nel giro di due mesi, avremo tutti i passaggi formali. Poi la sua entrata in vigore sarà più lunga”.
Probabilmente serviranno due anni prima che i suoi effetti potranno essere applicati. Tra l’altro, sarà un processo a tappe. “La prima parte che entrerà in vigore sarà quella dei divieti, operativi in circa sei mesi”. I casi in cui non potrà essere utilizzato sono quello della polizia predittiva, riconoscimento emotivo su lavoratori e studenti, categorizzazione biometrica, uso della sorveglianza in tempo reale. Questa verrà “permessa solo per crimini gravissimi, quindi con un divieto quasi totale. La seconda parte che entrerà in vigore, dopo dodici mesi, riguarda le regole per i modelli più potenti, come quelli alla base di ChatGPT, che sono diventati l’alfabeto degli strumenti di IA. Verranno utilizzati, ma se raggiungono una pericolosità sistemica, vogliamo che vengano sottoposti ad alcune verifiche di sicurezza prima che vengano messi in commercio”. Insieme a questi, “entreranno in vigore le regole di trasparenza per tutti i modelli a uso generale (general purpose), che non hanno una capacità specifica ma sono versatili”.
L’intelligenza artificiale è d’altronde piombata all’interno delle nostre vite, senza che neanche ce ne accorgessimo. L’utilizzo trasversale che ne fanno le grandi aziende tecnologiche impone il cambiamento in modo tacito, nel senso che molte volte ci troviamo ad utilizzare strumenti addomesticati con IA senza neanche saperlo. Le società la sfruttano soprattutto per la raccolta dati e le successive analisi su questi, in quello che rientra sotto la voce AI & Advanced Analytics, che permette di utilizzare i big data sotto molteplici forme.
L’AI Act dunque è solo il punto di partenza. Parliamo di una novità sul panorama mondiale che può fungere da modello per altri Paesi. Il prossimo G7 sarà a guida italiana e il nostro governo ha detto di puntare molto sul tema della digitalizzazione. “C’è sicuramente un rapporto tra i grandi del mondo è l’AI Act”, ha spiegato Stefano da Empoli, presidente dell’Istituto per la Competitività (I-Com). “Il G7 a presidenza italiana non parte da zero, visto che quella giapponese ha lavorato molto su questo tema, portando già ad alcuni risultati. Certamente la tecnologia avanza e credo che il 2024 permetterà di consolidare questo processo ed è un momento essenziale. Occorre però includere altri Paesi oltre il G7, anche se sono le principali democrazie mondiali e può essere una buona base di partenza. Ma è importante allargarsi per trovare un consenso internazionale”, ha concluso.
Tutti i relatori hanno riconosciuto il grande lavoro servito per arrivare fin qui. Sebbene manchi ancora il testo finale, “mi ha colpito molto nella definizione del rischio, dove il pericolo viene da un modello grande” ha dichiarato nel live talk Barbara Caputo, professoressa ordinaria al Politecnico di Torino. Ciononostante, “questi modelli sono potenti, ma anche opachi e potenzialmente pericolosi. Nella loro regolamentazione, mi chiedo fino a che punto si riesca a farlo senza prima averli toccato con mano”. L’AI Act rappresenta dunque “un segnale molto potente su come l’Europa intende giocare la partita della tecnologia”, ma “servono esperti tecnici per guardare dentro tutte queste scatole”.
A prendere parte all’evento sono state anche le aziende, loro dirette interessate dalla normativa. “L’Europa ha raggiunto un accordo molto importante ed è un grande successo”, ha dichiarato Alessandra Santacroce, responsabile delle relazioni istituzionali di IBM. La sua azione ha da sempre spinto per “un approccio equilibrato, incentrato sulla regolamentazione delle applicazioni ad alto rischio, cercando di promuovere trasparenza e sicurezza. Pensiamo possa essere la giusta risposta per non penalizzare l’innovazione e tutelare i diritti”. Con un auspicio: “Che in questa fase di finalizzazione si mantenga alta l’attenzione sul rischio e non sul tema degli algoritmi. Questo percorso ha evidenziato come ci debba essere collaborazione tra mondo delle aziende e delle istituzioni. Ce ne sarà sempre più bisogno, perché il rischio è che il legislatore arrivi tardi o in maniera non coerente.
Dello stesso avviso è stato Luigi Ferrata, Head of Public Affairs di Engineering. Con questo regolamento “l’Europa ha fatto un po’ da battistrada, come spesso accade in tema di legislazione innovative. Mi viene in mente il GDPR”. Tuttavia, “il legislatore fa fatica a mettere a terra punti fermi che possono essere superati dopo pochi mesi”. Dove vorrebbe vedere “un maggiore ruolo dell’Europa” è invece sulla “nascita di altri campioni europei per cui, a nostro avviso, mancano le competenze per cogliere davvero la trasversalità dell’IA. E da questo punto di vista anche l’Italia deve fare di più”.
Giulia Gioffreda, Government Affairs & Public Policy Manager di Google, ha citato l’amministratore delegato del colosso statunitense per cui lavora, Sundar Pichai, per dire che l’IA è “troppo importante per non essere regolamentata”. Nel 2018 “ci siamo dotati di un approccio responsabile, con tutti quei principi che vengono inseriti in un processo di creazione del prodotto”. Il che “permette di avere una marcia in più quando ci sono regolamentazioni che lo impongono”. Ma ci sono dei nodi da chiarire, per esempio quelli che riguardano il segreto commerciale e la categorizzazione biometrica, utilizzata da Google per conoscere, tra le altre cose, casi di pedopornografia online.