La Camera dei deputati, sotto l’impulso della vicepresidente Anna Ascani, ha iniziato un ciclo di audizioni sull’Intelligenza Artificiale. Esperti, aziende, accademici, racconteranno il salto inaspettato di questa tecnologia per capire quale ruolo possono giocare le istituzioni. In questa conversazione con Ascani, si parla dell’AI Act, della video-sorveglianza e dell’identificazione biometrica a distanza, e delle prospettive italiane in questo campo
Il recente voto del Parlamento europeo sulla bozza di Regolamento europeo per l’Intelligenza Artificiale (AI Act), mette l’Europa in una posizione unica al mondo. È la conclusione di un percorso iniziato tre anni fa, con un “Libro bianco sull’Intelligenza Artificiale” e una risoluzione del Parlamento europeo sugli aspetti etici dell’Intelligenza Artificiale, della robotica e delle tecnologie correlate. Un quadro complesso e articolato che ha messo in evidenza l’impatto dell’IA sul mondo del lavoro e delle professioni, sull’arte e la cultura e, più in generale, sulla società. Dell’argomento se ne sta occupando anche la Camera dei deputati con il suo Comitato di vigilanza sulla documentazione, presieduto dalla vicepresidente Anna Ascani, che ha promosso un ciclo di audizioni di accademici e dei principali sviluppatori di tecnologia al mondo. Sono già stati ascoltati Paolo Benanti, Gianluca Ferraris, Rita Cucchiara, Gianluca Misuraca. Oltre a docenti e ricercatori, davanti al comitato si presenteranno esperti del settore pubblico e delle pubbliche amministrazioni, nonché i principali player industriali.
Con il voto sull’AI Act, il Parlamento europeo ha fatto un salto in avanti nella regolamentazione dell’Intelligenza artificiale. Anche stavolta, Bruxelles si muove mentre altri ordinamenti sono restii a scrivere regole per un settore dinamico e in cui c’è grande competizione globale. Basterà il cosiddetto Brussels effect a far convergere gli altri intorno a regole comuni?
Il Parlamento europeo ha fatto un passo avanti importantissimo anche nel contesto internazionale; il fatto che questo sia il primo regolamento di questo genere a livello mondiale è un elemento di cui non si può non tenere conto. Tuttavia, l’intelligenza artificiale è qualcosa che va oltre non solo i confini nazionali ma anche quelli europei e quindi è molto importante capire se si riuscirà a portare a termine il lavoro che la Commissione europea sta facendo insieme al Governo degli Stati Uniti – rispetto al quale si è annunciato un codice di condotta – e quali ne saranno gli elementi caratterizzanti. Per essere efficaci, per la natura stessa di questa tecnologia, serve un quadro globale condiviso di regole. Detto questo, mi auguro che l’esempio europeo venga seguito da altri, soprattutto perché il testo approvato concilia innovazione tecnologica e garanzie per i cittadini sull’utilizzo.
La questione della video-sorveglianza di massa e dell’identificazione biometrica a distanza: un punto che ha diviso i gruppi dell’Eurocamera, più o meno tra conservatori e progressisti. Alla fine è passata un’impostazione “prudente”: si possono usare queste tecnologie solo ex post. Questo non rischia di compromettere le indagini su reati gravi come il terrorismo?
L’impostazione prevalsa sulla video sorveglianza è di assoluto buon senso, perché stabilire limiti sull’utilizzo di dati personali sensibili è doveroso, considerato che queste tecnologie consentono di registrare informazioni personali in maniera indiscriminata. Queste tecnologie rendono possibile, oggettivamente, il controllo totale. La regolamentazione è essenziale, fondamentale, questo non significa compromettere la sicurezza, anzi, significa dare più sicurezza ai cittadini. Nei paesi che utilizzano i sistemi di video sorveglianza in modo diffuso si è arrivati ad applicare – ad esempio – il social credit system: modello per cui anche utilizzando il riconoscimento facciale si attribuiscono punteggi ai cittadini in base ai comportamenti registrati. Non è una strada che possiamo né vogliamo percorrere.
Questione ChatGpt e IA generativa: come considera questa innovazione? Si parla molto di scenari apocalittici in un futuro più o meno distante, ma questo distrae dalle questioni già urgenti: deep fake, disinformazione e misinformazione, abuso della proprietà intellettuale, eliminazione di posti di lavoro in tempi molto rapidi. In Europa si pensa a una specie di “etichettatura”, ma al momento ci sono strumenti (anche in Italia) per arginare alcune di queste distorsioni? Serve una legge nazionale, è compito delle Authority o è meglio aspettare un approccio comunitario?
L’avvento di ChatGpt ha stravolto gran parte delle convinzioni che avevano cominciato a solidificarsi riguardo l’impatto dell’Intelligenza artificiale, questo perché ha mostrato di cosa è davvero capace l’IA generativa, ben oltre quello che persino gli addetti ai lavori si aspettavo fino a qualche mese fa. Di questo si deve sicuramente tenere conto nell’immaginare delle regole che possano essere adeguate allo sviluppo tecnologico. È evidente che si tratta non tanto di ostacolare quanto, piuttosto, di avere dei guard rail – per cosi dire – cioè dei meccanismi di protezione che impediscano di deragliare quando questa tecnologia si sviluppa. Poiché però questa tecnologia corre su binari e autostrade che sono globali, avere una regolazione esclusivamente nazionale rischia di non avere alcuno o poco impatto. Il contesto in cui sviluppare questo ragionamento – ed è quello che, in parte, si è riusciti a fare con l’AI Act poche ore fa – è quello europeo e poi, attraverso l’Europa, deve diventare globale.
Il Regno Unito a marzo ha pubblicato un white book in cui promette di non regolamentare in modo stringente l’IA, per favorire gli investimenti privati e non soffocare la ricerca. L’Italia ha sicuramente una sua forza relativa in campo tecnologico, con realtà come il supercomputer Leonardo e una serie di aziende innovative nei settori cybersicurezza, difesa, spazio. Come possiamo diventare un polo di attrazione, per investimenti e per “cervelli”, anche nel campo dell’IA? Le nostre università e il nostro tessuto industriale sono pronti alla sfida?
La mia esperienza al Ministero dello sviluppo economico mi ha insegnato che il sistema italiano è caratterizzato da imprese molto capaci di innovazione, anche in campo tecnologico, ma che spesso non sono supportate a sufficienza nell’investimento in ricerca. Quindi un aspetto da cambiare nel nostro sistema produttivo è quello di rendere più semplice e accessibile il finanziamento all’innovazione ad alto impatto tecnologico, sostenere la ricerca applicata e supportare quelle imprese che investono e si caratterizzano sul mercato per la propria capacità di investire in questo ambito. Negli anni abbiamo sviluppato diversi strumenti, alcuni dei quali hanno avuto effetti positivi e penso al “Piano Industria 4.0” diventato poi “Piano Impresa 4.0” fino a il piano nazionale della Transizione 4.0, ampiamente finanziato anche all’interno del Piano Nazionale di Ripresa e Resilienza (Pnrr), proprio a supporto delle piccole e medie imprese che sono un po’ più indietro nella transizione digitale.
Ma non si tratta solo di mettersi in pari…
Esatto, è necessario colmare il divario; quando parliamo di nuove tecnologie si tratta di anticipare gli altri, con enormi investimenti, come ci ha detto in audizione Nestor Masley dell’Institute for Human-Centered AI dell’Università di Stanford. Per competere con paesi come la Cina e gli Stati Uniti, l’unica possibilità che abbiamo è mettere insieme le nostre forze, finanziando con risorse importanti a livello europeo la ricerca applicata allo sviluppo tecnologico. L’Europa non deve solo caratterizzarsi come il luogo della regolamentazione e dell’utilizzo di tecnologie sviluppate altrove, dobbiamo caratterizzarci anche come sviluppatori di tecnologie. In Europa non mancano certo le intelligenze, quello che è mancato è far convergere i finanziamenti su progetti comuni, si è spesso preferito parcellizzare i finanziamenti. L’Italia può e deve svolgere un ruolo da protagonista in questo campo, proprio perché abbiamo competenze e un sistema di alta formazione di eccellenza.