Libertari contro Vigilanti: telecronaca di una partita che ha portato all’AI Act, il primo grande framework di regole sull’intelligenza artificiale. Scrive Marco Bani

È finita! In uno stadio virtuale si sono affrontate due squadre: i “Vigilanti” contro i “Libertari”. La partita aveva come premio in palio la definizione dell’AI Act, il più ambizioso quadro di regolamentazione dell’intelligenza artificiale al mondo. Ma attenzione, non è solo una questione di regole e norme, ma una vera e propria competizione tattica per il potere tecnologico.

Scendono in campo i campioni americani

Poteva essere una partita noiosa, con la squadra Europa compatta con tutti i suoi giocatori a chiudere facilmente la partita della regolamentazione. Ma la partita si è accesa quando dagli Stati Uniti scendono in campo i campioni come ChatGPT, Bard, Anthropic, nuovi giocatori che cambiano le regole del gioco utilizzando modelli fondazionali: grandi modelli di intelligenza artificiale che sono stati addestrati su enormi set di dati vari (testo, immagini, ecc.) per apprendere una vasta gamma di competenze senza essere specificamente programmati per compiti specifici, avvicinandosi a una intelligenza artificiale generale. Il Parlamento europeo, nel rivedere la prima proposta dell’AI Act, propone di limitare l’ingaggio di questi campioni, imponendo una regolamentazione più severa sui modelli fondazionali. E su questo lo squadrone Europa si è diviso in due squadre in competizione fra loro.

Libertari vs Vigilanti

Da una parte i “Libertari”, capitanati dalla Francia, che, attraverso una strategia offensiva, ha fatto scendere come attaccante addirittura Emmanuel Macron. Il presidente francese ha sostenuto che un AI Act troppo rigido limiterebbe il dinamismo delle startup. Sappiamo che la Francia negli ultimi anni ha scommesso molto sull’innovazione tecnologica e adesso vuole raccogliere i frutti dei suoi investimenti. È francese anche la speranza europea di avere un “fuoriclasse” tra i modelli fondazionali, un sistema che possa competere con ChatGPT e gli altri. Si chiama Mistral, ha raccolto investimenti milionari e ha come giocatore Cédric O, ex sottosegretario al digitale del primo settennato di Macron. Insieme alla Francia sono scese in campo Germania e Italia, con un documento informale che chiedeva codici di condotta, e quindi una specie di autoregolamentazione, piuttosto che obblighi vincolanti sui modelli fondazionali. Perché questo? La Germania sta allenando il suo “campione”, Aleph Alpha, e potrebbe ritrovarsi negli intenti francesi di una regolamentazione leggera. Non si capisce invece la posizione dell’Italia, espressa dal ministro per le Imprese e il Made in Italy, Adolfo Urso, che non ha “giocatori” da proteggere. L’unico motivo che viene in mente è una sorta di “partita di giro”: schierarsi con Francia e Germania su questo per ottenere qualcosa in un’altra partita. Al centro della difesa c’è Digital Europe, l’associazione di categoria che rappresenta le imprese digitali, schierati con la squadra dei Libertari perché una regolamentazione eccessiva potrebbe soffocare la creatività e l’ingegno, costringendo le startup a nascere e crescere in altre regioni, oltre a comportare costi proibitivi per le piccole e medie imprese. Giocano anche in questa squadra rappresentanti dei “Securitari”, ovvero chi vorrebbe meno regole sulle tecnologie per il riconoscimento emotivo e biometrico ai fini di sicurezza nazionale.

Dall’altra parte del campo, i “Vigilanti” hanno usato una tattica di prudenza e controllo, impostando un’azione di gioco basata nell’evitare discriminazioni, violazioni della privacy e del diritto d’autore e minacce alla sicurezza nazionale. Questa squadra ha molti giocatori: giuristi, creativi, accademici, che si sono schierati al fine di tutelare e promuovere la creatività umana e la trasparenza oltre a temere che, in nome di interessi economici di breve termine e poche società, si dia via libera a modelli di intelligenza artificiale che possano indebolire i diritti collettivi.  Per i “Vigilanti”, le imprese non dovrebbero creare da sole le regole del gioco: non imporre nessun vincolo ai modelli fondazionali è come affrontare il cambiamento climatico regolamentando i veicoli, ma ignorando le attività delle compagnie petrolifere. Il capitano di questa squadra è la Spagna, che ha fatto dell’intelligenza artificiale un tema fondamentale del semestre europeo che presiedeva e che sta volgendo al termine. Non solo hanno spinto per una chiusura veloce dell’AI Act, ma è stato anche il primo Paese a anticiparne gli effetti, istituendo la prima Agenzia per l’Intelligenza artificiale. Il Parlamento europeo, rappresentato dagli ottimi registi Dragoş Tudorache e Brando Benifei, ha lottato in ogni parte del campo, sottolineando come gli obblighi si applicheranno solo allo sviluppatore originale dei modelli inseriti nella categoria di rischio sistemico e non alle imprese e startup che ne fanno utilizzo. Clamorosamente l’Italia giocava anche in questa squadra, dal momento che il sottosegretario all’innovazione tecnologica, Alessio Butti, rivendica di essere il giocatore ufficiale per l’Italia, vista la delega sulla strategia per l’intelligenza artificiale. Una posizione confusa del nostro Paese, che ha scelto di giocare in tutte le squadre, disperdendo la sua forza e perdendo di credibilità.

La fine dell’incontro: vincono i Vigilanti, l’AI Act è realtà

Come in ogni grande derby, l’esito è stato incerto fino all’ultimo minuto, con entrambe le squadre che non hanno mollato un centimetro di campo. Ma dopo 37 ore di partita, è arrivato il fischio finale: hanno vinto i “Vigilanti”.

La squadra dei Libertari ha incassato gol da tutte le parti, ma la rete più pesante è sui modelli fondazionali. La regolamentazione dei grandi modelli di intelligenza artificiale sarà articolata su due livelli: il primo, che riguarda tutti i modelli, impone la divulgazione di un elenco dei dati utilizzati per l’addestramento degli algoritmi. Questo dovrebbe teoricamente aiutare i creatori di contenuti a proteggere o rivendicare i loro diritti d’autore. Il secondo livello si concentra sui sistemi più potenti che presentano “rischi sistemici”. Questi sistemi richiederanno valutazioni specifiche dei rischi e piani di mitigazione, oltre all’obbligo di segnalare eventuali incidenti alla Commissione, che istituirà un Ufficio AI dedicato a questo scopo. In caso di non conformità con queste norme, le aziende rischiano sanzioni pecuniarie che variano dall’1,5% al 7% del loro fatturato globale.

Inoltre, ci sarà l’obbligo di identificare chiaramente tutti i contenuti generati dall’AI per prevenire frodi o disinformazione, cercando di limitare i deepfake e l’esplosione delle repliche digitali.

Sconfitta anche l’Italia, che, secondo Benifei, avrebbe voluto insieme ad altri governi “securitari” più mano libera nel mettere sotto controllo i cittadini e fare profilazione: i sistemi di riconoscimento biometrico potranno essere usati solo previa autorizzazione di un giudice e in circostanze ben definite, come emergenze terroristiche, ricerca di vittime o di sospettati di crimini gravi.

Infine, viene confermato l’approccio proporzionato basato sul rischio che consente di vietare gli usi dell’IA che violano i diritti fondamentali e i valori dell’Unione europea, come il social scoring e stabilire regole chiare per i casi d’uso ad alto rischio, soprattutto quando vengono utilizzati dalle forze dell’ordine, sul posto di lavoro e nell’istruzione, a tutela delle persone più fragili.

Tra gli spalti, come spettatori interessati, ci sono state le Big Tech americane, che hanno investito miliardi nello sviluppo dell’intelligenza artificiale e vogliono capire cosa succederà ora per loro.

Adesso vincere la partita dello sviluppo tecnologico

L’Europa è diventata il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale, ma adesso continua la partita più difficile, quello dello sviluppo tecnologico, ovvero la necessità per l’Europa di tornare una grande squadra e competere con i campioni statunitensi e cinesi, promuovendo una politica industriale che possa premiare le soluzioni di intelligenza artificiale che sposano le norme che si stanno plasmando, promuovendo un’innovazione dirompente, ma responsabile. Come dice il commissario europeo per il mercato interno, Thierry Breton, celebrando la vittoria dei “Vigilanti”: “l’Europa si è posizionata come pioniera, comprendendo l’importanza del suo ruolo di normatore globale. Ora ci imbarchiamo in un nuovo viaggio.” Bilanciare la sicurezza dei cittadini e l’innovazione per le startup, rispettando i diritti fondamentali e i valori europei, non sarà facile. L’intelligenza artificiale è una tecnologia che sta mutando rapidamente, evolve in modo esponenziale e che potrebbe vedere tra pochi mesi la nascita di nuovi “fuoriclasse”, pronti a spazzare via le regole raggiunte faticosamente oggi. Riuscirà l’AI Act a contenere queste evoluzioni esponenziali? Non dovremmo pensare anche a essere campioni nell’usare l’intelligenza artificiale per risolvere piccoli e grandi problemi sistemici come l’invecchiamento della popolazione o il cambiamento climatico?

Mentre abbiamo l’obbligo di dimostrare al mondo l’importanza e l’efficacia dell’AI Act, non dobbiamo dimenticarci di giocare nel Mondiale dell’intelligenza artificiale, trasformandosi da Vigilanti a Campioni, altrimenti ci troveremo a essere il miglior arbitro della competizione. Ma gli arbitri non vincono le partite. Non le giocano nemmeno.

(Foto ChatGPT-generated – prompt: due squadre di calcio che lottano per la regolamentazione dell’intelligenza artificiale, in ballo c’è il trofeo con scritto “AI Act”)

Condividi tramite