Skip to main content

La governance per l’IA di cui hanno parlato Meloni e Biden nell’analisi di Bassan

La regolamentazione sull’Intelligenza Artificiale in Ue sta concludendo il suo iter. L’approccio è molto pragmatico, ma ora occorre – con il lavoro congiunto assieme agli Usa – estendere questi principi e applicarli anche negli Stati membri attraverso un sistema di regolazione partecipata. Conversazione con il prof. Fabio Bassan, docente dell’Università Roma Tre ed esperto di IA

L’idea di una governance per regolare l’Intelligenza artificiale, perché “non è una materia che si può governare a livello di stato nazionale” ma ci si deve affidare all’intervento “degli stati nazionali” per “imporre dei limiti”. Il premier Giorgia Meloni, di ritorno dagli Stati Uniti e dopo il confronto con Joe Biden ed Henry Kissinger su questi temi, lancia l’idea – appunto – di una governance per monitorare le evoluzioni dell’intelligenza artificiale nei suoi svariati campi di applicazione. Quelle di Meloni sono affermazioni “più che condivisibili e l’auspicio di questa governance coglie lo spirito del tempo”. A dirlo nella sua intervista a Formiche.net è Fabio Bassan, docente dell’Università Roma Tre ed esperto di tecnologia.

Posto che le affermazioni di Meloni colgono nel segno, in che tipo di contesto si inseriscono?

Il premier è consapevole che con l’IA non si può fare come con gli altri mercati, ossia farli crescere e sviluppare e in fieri variarne la “rotta”. In questo caso ci sono temi e implicazioni molto più complesse. Il quadro in cui si inseriscono queste frasi è sicuramente quello di una volontà di mettere a terra prima di tutto i principi enunciati dalla regolamentazione europea.

Negli Stati Uniti l’argine agli strumenti dell’IA è stato individuato nel Frontier Model Forum. A livello europeo a che punto siamo?

L’iter per la regolamentazione dell’IA a livello europeo è in fase conclusiva e si perfezionerà entro questa legislatura. Il modello adottato si sviluppa su due livelli: uno orizzontale e uno verticale. Diversamente dal passato, l’Ue ha adottato un approccio molto pragmatico. Sono, pertanto, stati individuati tre livelli di “rischio” nell’impiego dell’Intelligenza artificiale. Bianco, grigio e nero.

Cosa comportano questi livelli di rischio relativamente alla regolamentazione e all’impiego dell’IA?

Il bianco è il rischio limitato, in alcuni settori di applicazione dell’IA. In questo senso l’uso dell’intelligenza artificiale è ammesso, purché sia garantita la trasparenza. Cioè occorre garantire al fruitore di determinati strumenti che sta interagendo con l’intelligenza artificiale. Questo, deve applicarsi anche all’intelligenza artificiale generativa.

Il grigio e il nero?

Il nero è presto detto: quando si fa classificazione sociale, rating o studi sulle basi di caratteristiche personali, l’intelligenza artificiale non è ammessa. Non si può, ad esempio, impiegare l’IA per il riconoscimento biometrico in tempo reale. Allo stesso modo è vietata quando si configura il rischio di una manipolazione comportamentale di gruppi vulnerabili (i giocattoli per bambini, a titolo esemplificativo). L’area grigia raggruppa gli ambiti nei quali l’intelligenza artificiale è ammessa, ma a certe condizioni. Per utilizzare l’IA in questo senso occorre registrare le applicazioni in un database che fa capo all’Ue. L’esempio è quello delle infrastrutture critiche o quello della formazione professionale, l’accesso ai servizi essenziali. In sostanza questa registrazione è fondamentale perché consente che ci sia sempre una persona in grado di intervenire qualora la situazione dovesse sfuggire di mano.

Insomma, possiamo dire che in Ue si sono fatti passi avanti significativi, no?

Indubbiamente, però la vera sfida sarebbe quella di estendere questa regolamentazione oltre i confini dell’Unione europea. Altrimenti il rischio è quello di creare uno strumento che ha applicazione geografica limitata. Ed è il motivo per il quale è stato creato un gruppo di lavoro tra Ue e Usa per redigere delle linee guida per l’utilizzo dell’IA. Il mio auspicio è che queste linee guida siano contenutisticamente “vicine” alla regolamentazione europea.

A questo punto rimarrebbe fuori solo la Cina. 

La Cina fa mondo a sé. È chiaro che le linee guida che usciranno dal gruppo di lavoro saranno un benchmark per tutto il mondo, escluso il Dragone.

La regolamentazione europea enuncia diversi principi. Ma come declinarli nei singoli Stati membri?

Con un sistema di regolazione partecipata. Occorre, quindi che, chi fissa le regole giuridiche cooperi fin dall’inizio con chi lavora in questi ambiti per fare in modo che l’Ia sia sviluppata nel solco del nostro welfare e nel rispetto dei diritti riconosciuti nei singoli stati membri. Fermo restando che una regolamentazione adeguata sull’applicazione dell’intelligenza artificiale potrebbe essere un elemento di competitività importante per le nostre imprese e garantire creazione di valore per un’intera filiera. La fase applicativa del regolamento europeo può essere sviluppata dal legislatore, ma anche dalle autorità di regolazione, magari coordinate tra loro.


×

Iscriviti alla newsletter