Skip to main content

Conferme e novità del ddl IA secondo la prof. Finocchiaro (UniBo)

Di Giusella Finocchiaro

Con il testo approvato dal Cdm, l’Italia anticipa l’applicazione del regolamento Ue e integra con alcune disposizioni relative a specifici settori. L’analisi di Giusella Finocchiaro, professoressa ordinaria di diritto privato e di diritto di Internet dell’Università di Bologna

Questa settimana il Consiglio dei ministri ha approvato il disegno di legge sull’intelligenza artificiale, che reca scelte importanti sugli investimenti e sulla formazione, ambiti cruciali per lo sviluppo dell’IA. La sintesi che segue riguarda le disposizioni più strettamente giuridiche, dal momento che il ddl anticipa alcune disposizioni dell’AI Act e detta alcune norme negli spazi di competenza del legislatore nazionale.

Come si sa, infatti, la cornice è dettata dal Regolamento europeo sull’intelligenza artificiale, approvato in marzo, ma non ancora pubblicato in Gazzetta Ufficiale. Il Regolamento europeo sarà pienamente applicabile solo nel 2026, benché alcune disposizioni saranno applicabili prima di quella data. Dunque, l’Italia anticipa la sua applicazione e integra con alcune disposizioni relative a specifici settori.

Nel testo normativo ci sono, innanzitutto, molte conferme. Si chiarisce e si ribadisce l’applicabilità di molte disposizioni già esistenti anche all’intelligenza artificiale. 

Si riaffermano i principi fondamentali previsti dalla Costituzione e dal diritto dell’Unione Europea nella ricerca, sperimentazione, sviluppo, adozione, applicazione e utilizzo di sistemi e modelli di intelligenza artificiale e altresì i principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.

Conformemente a quanto maturato nel dibattito europeo, si dichiara che lo sviluppo di sistemi e di modelli di intelligenza artificiale avviene su dati e tramite processi di cui deve essere garantita e vigilata la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza, secondo il principio di proporzionalità in relazione ai settori nei quali sono utilizzati.

Si ribadisce, inoltre, che i sistemi e i modelli di intelligenza artificiale devono essere sviluppati ed applicati nel rispetto della autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità.

La cybersicurezza acquisisce un’importanza strategica e viene considerata precondizione essenziale.

Particolare attenzione, viene dedicata, inoltre, all’utilizzo di sistemi di intelligenza artificiale nella vita istituzionale e politica e nel mondo del lavoro e, in quest’ultimo ambito, viene istituito un Osservatorio sull’adozione dei sistemi di intelligenza artificiale presso il Ministero del lavoro.

Viene ribadito un principio fondamentale: che l’intelligenza artificiale non assume decisioni ma supporta chi le deve assumere, sia nell’attività sanitaria che in quella giudiziaria. Medico e giudice, dunque, non potranno essere sostituiti, ma solo aiutati, dall’intelligenza artificiale e la decisione resterà in capo a loro.

Anticipando l’AI Act, la governance dell’intelligenza artificiale in Italia viene affidata a due agenzie: l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) che sono qualificate Autorità nazionali per l’intelligenza artificiale. Restano ferme ovviamente le competenze delle Autorità già operanti nel settore come, per esempio, quelle del Garante per la protezione dei dati personali che già ha avuto modo di occuparsi di intelligenza artificiale, ad esempio con Open AI. Sarà essenziale, evidentemente, uno stretto coordinamento fra i diversi soggetti competenti.

Venendo a settori specifici, si segnala l’importanza della disposizione in materia di dati sanitari. Si semplifica la normativa sulla protezione dei dati personali concernente il trattamento dei dati per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale. Inoltre, è sempre autorizzato l’uso secondario di dati personali privi degli elementi identificativi. È un tema di grandissima rilevanza per il nostro Paese e per la competitività dei ricercatori italiani in Europa.

Quanto alle disposizioni in materia di diritto d’autore, si prevede, in particolare, che i contenuti generati o modificati dall’intelligenza artificiale siano indicati con una sorta di filigrana digitale, già detta “bollino IA”, che indica come sono stati prodotti. Nei contenuti audio, ovviamente, sarà sostituita da un apposito annuncio.

Infine, è previsto un nuovo reato, quello di illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale, che è stato subito ribattezzato “reato di fake news”. L’utilizzo dell’IA può, in altri casi, costituire una circostanza aggravante.

La disposizione più importante e più innovativa è quella che prevede l’utilizzo della cosiddetta sandbox, per sperimentare, in campi limitati, anche normativamente. Non conosciamo, infatti, ancora a fondo ciò che si cerca di regolare e seguire passo passo la tecnologia potrebbe rivelarsi il metodo migliore di disciplinarla.



×

Iscriviti alla newsletter