Il testo più innovativo al mondo in materia di regolamentazione tecnologica doveva essere partorito oggi, ma dopo 22 ore di trattative i colloqui del trilogo sono rimandati a domani. C’è fiducia sul buon esito dei negoziati, ma rimangono ancora alcuni ostacoli lungo il cammino
Dopo ventidue ore di negoziati, dalle stanze in cui si sta trattando l’accordo per far nascere l’AI Act è uscita una fumata nera. Le istituzioni dell’Unione europea – Consiglio, Parlamento e Commissione – non hanno trovato l’intesa, come ha spiegato il commissario per il Mercato interno e i servizi, Thierry Breton, che rimanda l’appuntamento a domattina alle ore 9 quando riprenderanno i colloqui del trilogo. Tuttavia, ha precisato nel suo post su X, nell’ultimo giorno “sono stati compiuti molti progressi”. Se infatti ci si aspettava un risultato differente, la mancata stretta di mano non comporta un deragliamento nel percorso che, presto o tardi, porterà alla prima legislazione al mondo sull’intelligenza artificiale – motivo di orgoglio per l’Ue.
Già oggi si prospettava infatti la sua annunciazione, dopo che i negoziati cominciati ieri erano andati nel verso giusto. Sembra essere raggiunta, almeno “in linea di principio”, un’intesa sulla regolamentazione dei modelli di fondazione di intelligenza artificiale generativa, quelli che si trovano alla base dei chatbot, alla stregua di ChatGPT per intenderci (che tra l’altro è stata la pagina Wikipedia più cercata dell’anno). Ad affermarlo era Reuters, che aveva letto un primo documento in cui si leggeva che la Commissione europea avrebbe mantenuto una lista di quei modelli ritenuti a “rischio sistemico”, mentre alle aziende spetterebbe il compito di redigere una sorta di bugiardino in cui spiegano come è stato addestrato.
Uno dei punti più complessi da sciogliere riguardava quello posto da Francia, Germania e Italia, che si erano schierate contro l’approccio graduale e multi livello per i modelli di IA generativa sponsorizzato dalla presidenza spagnola. In sostanza, basandosi sul Digital Markets Act e sul Digital Services Act, la proposta di Madrid è di prevedere regole più stringenti in base al modello: più è potente, più va ristretto il suo campo. Parigi, Berlino e Roma avrebbero preferito un’autoregolamentazione da parte degli stessi produttori, per evitare di sfavorire le loro start-up e grandi aziende.
La Commissione avrebbe inoltre proposto di esentare i modelli gratuiti e open-source da una regolamentazione rigida – fatto salvo il rischio elevato o utilizzi vietati dalla legge – venendo così incontro all’azienda francese Mistral e quella tedesca Aleph Alpha. Ma in questa partita rientrerebbe anche OpenAI, pensata come società no-profit open source, e tante altre realtà che si basano su un approccio aperto. Ciononostante, niente è “ancora stato definito” ha precisato una fonte informata sull’andamento delle trattative. “Quindi non possiamo affrettarci a trarre conclusioni”.
Rimangono però delle questioni ancora irrisolte, tra cui figurano anche l’utilizzo dell’IA nella sorveglianza biometrica in tempo reale e da remoto (i legislatori vorrebbero vietarla, mentre gli Stati membri chiedono deroghe per le questioni di rilevanza nazionale come la sicurezza), l’accesso al codice sorgente, l’impatto sui diritti fondamentali da parte di questi strumenti. Sono gli ultimi ostacoli prima di raggiungere il traguardo, su cui ancora c’è bisogno di lavorare. Ma a mente lucida, come ha chiarito un funzionario off topic. “Siamo esausti. Non possiamo andare avanti così. Abbiamo bisogno di dormire per potere rivalutare i testi”.
L’Unione europea ha tuttavia fretta di arrivare laddove Stati Uniti e Cina ancora non sono riusciti. Anzi, potrebbe fungere da modello e da esempio da cui prendere spunto, come poche volte è accaduto nella storia. La missione è di arrivare quanto prima ad un accordo in primavera, così da votarlo prima delle elezioni di giugno. Se tutto va bene, nel giro di due anni l’IA Act potrebbe essere realtà. Ma se dovessero esserci intoppi lungo la tabella di marcia, e con un cambio di linea dopo il voto, il rischio di rimanere con il cerino in mano è concreto.