“Di certo è essenziale che l’Europa si doti di una regolamentazione nel campo, ma potrebbe farlo in maniera meno gravosa sull’innovazione e la competitività”, spiega Stefano da Empoli, presidente dell’Istituto per la Competitività. Cosa vuol dire definire “ad alto rischio” ChatGpt e gli altri bot generativi? “Più ci sono attività giudicate tali, maggiori sono i costi, più lunghi sono i tempi di sviluppo dei prodotti”

“Di certo è essenziale che l’Europa si doti di una regolamentazione nel campo, ma potrebbe farlo in maniera meno gravosa sull’innovazione e la competitività”, così Stefano da Empoli, presidente dell’ Istituto per la Competitività e docente di economia politica presso l’Università Roma Tre, intervistato da Formiche.net sul tema dell’Artificial Intelligence Act europeo, che in questi giorni fa notizia perché potrebbe classificare “ad alto rischio” i chatbot come ChatGpt di OpenAI o Bard di Google.

Come è stata accolta la proposta legislativa nel mondo imprenditoriale?

Bisogna sicuramente distinguere tra imprese grandi e piccole: naturalmente le grandi sono più attrezzate per affrontare i vari meccanismi di controllo e le maggiori barriere all’ingresso del mercato dell’intelligenza artificiale (AI). Più in generale, secondo me, è riconosciuta l’importanza di una regolamentazione a livello europeo perché, tra l’altro, evita rischi di frammentazione del mercato interno. Chiaramente ci può essere preoccupazione su alcuni singoli aspetti della regolamentazione.

Cosa significa nel concreto essere inseriti in categoria di rischio alta?

Il fatto di essere inseriti in categoria di rischio alta comporta il dover effettuare una serie di test (le cosiddette valutazioni di conformità) sulla tecnologia che si sta sviluppando. Questo comporta dei costi e la necessità di strutture interne all’azienda specializzate sulla questione, sull’ottenimento dei certificati. Inoltre rischia di rallentare lo sviluppo delle tecnologie, dato che queste verifiche avranno bisogno di tempo per raccogliere evidenze sul funzionamento, sia dal lato aziendale sia da parte del regolatore. Questo allunga inevitabilmente i tempi. Più ci sono attività giudicate ad alto rischio, maggiori sono i costi, più lunghi sono i tempi di sviluppo dei prodotti.

Il Parlamento europeo ha in qualche modo reso più rigide le proposte della Commissione del 2021?

La proposta iniziale della Commissione individuava alcuni settori di applicazione di tecnologie ad alto rischio, forse talvolta in maniera troppo ampia, come ad esempio la salute. Nel campo della salute esistono certamente rischi molto elevati di discriminazione, o per i danni in caso di prodotti difettosi. D’altro canto ci sono applicazioni nel settore salute che potrebbero anche non essere giudicate rischiose. In ogni caso, l’approccio iniziale della Commissione nel 2021 restringeva abbastanza il campo di applicazione ad alto rischio. Il Parlamento europeo lo sta allargando fortemente e questo rappresenta, a mio avviso, un elemento di attenzione. Più si allarga questa definizione dell’alto rischio, maggiori sono i costi materiali e monetari. Ripeto, è essenziale che l’Europa si doti di una regolamentazione nel campo, ma potrebbe farlo in maniera meno gravosa sull’innovazione e la competitività.

Alcuni sostengono che l’approccio inglese alla regolamentazione dell’AI sia più competitivo.

Sicuramente il Regno Unito è il Paese più avanzato in Europa per lo sviluppo delle tecnologie AI e ha bene in mente l’obiettivo di conservare questo primato, forse anche un po’ giocando sulle differenze rispetto all’approccio europeo. È anche vero che l’Ue ha una dimensione totalmente diversa e affronta problemi diversi, come appunto la frammentazione del mercato interno. La legislazione Ue risponde al pericolo che alcuni Paesi facciano delle fughe in avanti. Oltre al fatto che si parla molto, a mio avviso forse troppo, del cosiddetto Brussels effect, l’idea che i le normative decise a Bruxelles riescano poi a influenzare altre giurisdizioni. Però credo che una legge basata sul rischio sia del tutto ragionevole, il punto è capire dove collocare le varie applicazioni dell’AI.

Recentemente è esploso il caso del chatbot ChatGpt. I software di questo genere pongono nuove sfide, come ad esempio quella del diritto d’autore, dato che propongono contenuti presi dal web come originali.

Una delle mancanze della proposta iniziale riguarda proprio tipi di AI generativa come ChatGpt, ovvero sistemi generici che possono essere applicati in una miriade di settori. Nel 2021 la Commissione immaginava più applicazioni distinte su singoli settori. Quindi in effetti uno dei problemi è fare in modo che L’Artificial Intelligence Act (AIA) si possa applicare anche a casi di questo tipo che sono esplosi negli ultimi mesi. Per quanto riguarda il copyright il tema sicuramente si pone. Nel senso che ChatGpt è un sistema che funziona in maniera efficace su cose che sono oggettive. Su tante altre cose che attengono a prodotti creativi e che non sono sintetizzabili da un algoritmo, di certo c’è qualche perplessità in più. Ci si deve necessariamente chiedere cosa debba fare il regolatore prima che il problema esploda. E qui si arriva al dilemma che spesso si affronta a Bruxelles. Se sia meglio attendere gli sviluppi di una tecnologia per poterla regolamentare al meglio, con il rischio che sfugga di mano; o definire immediatamente un quadro legale, con il rischio di rallentare l’innovazione.

Condividi tramite