Verso un quadro normativo chiaro e affidabile sull’intelligenza artificiale

Verso un quadro normativo chiaro e affidabile sull’intelligenza artificiale
"Una governance efficace per l'IA deve regolamentare non la tecnologia in quanto tale, ma i suoi usi. Fondamentale è che si basi su tre pilastri: responsabilità, trasparenza, equità e sicurezza". L'intervento di Alessandra Santacroce, esperta di etica della tecnologia e dell'intelligenza artificiale e direttore delle relazioni istituzionali di IBM Italia

Poche tecnologie attirano il livello di attenzione che ha suscitato l’intelligenza artificiale da parte di governi, imprese, accademici, media e società civile. Questa attenzione riflette sia l’enorme potenziale di sviluppo riconosciuto a questa tecnologia, sia le molte preoccupazioni ad essa relative: alcune ben fondate, altre forse meno.

La Commissione europea è stata in prima linea negli sforzi globali per comprendere e valutare i rischi e i benefici dell’AI e per stabilire princìpi etici del suo utilizzo. Come membro del gruppo di esperti ad alto livello della Commissione sull’intelligenza artificiale, lo scorso anno IBM ha contribuito a sviluppare i princìpi etici dell’Europa sull’intelligenza artificiale e ha accolto con favore lavori analoghi dell’Ocse. Tali princìpi sono importanti per aiutare a comunicare gli impegni con i cittadini e i consumatori e per stabilire una direzione strategica in un’area complessa e in evoluzione. Tuttavia, ora è tempo di passare dai princìpi alla definizione di politiche chiare.

Ecco perché IBM ha accolto con favore l’opportunità di contribuire alla consultazione della Commissione europea sul Libro bianco sull’intelligenza artificiale del febbraio 2020,  supportando come sempre politiche mirate capaci di aumentare la responsabilità delle aziende nello sviluppo e gestione di un’AI affidabile. Come riconosce il Libro bianco della Commissione, un efficace quadro di governance deve, innanzitutto, essere improntato su un approccio risk-based e deve cercare di regolamentare non la tecnologia in quanto tale, ma piuttosto i suoi usi. Siamo fermamente d’accordo con questo approccio generale e riteniamo che sia coerente con quanto stabilito nel nostro documento programmatico di gennaio 2020 sulla regolazione di precisione dell’AI, in cui abbiamo proposto che un quadro di governance risk-based per l’AI dovrebbe essere basato sui pilastri della responsabilità, trasparenza, equità e sicurezza.

Di seguito IBM intende evidenziare alcuni dei punti chiave sul quadro normativo proposto per l’AI:

– A fini regolamentari, la definizione di sistemi di intelligenza artificiale deve essere chiara e definita, in modo che l’attenzione si concentri su quei sistemi che causano problemi rilevanti, evitando che i sistemi non-AI vengano inclusi inavvertitamente

– Dovrebbe esistere un unico quadro di valutazione dei rischi per identificare le applicazioni definite ad alto rischio indipendentemente dal settore e senza elenchi di eccezioni

– In qualsiasi futuro quadro normativo, gli obblighi legali dovrebbero essere imposti a quegli attori che nella catena di fornitura dell’AI rivestono la posizione migliore per affrontare eventuali rischi

– Nei settori in cui esistono già meccanismi di valutazione della conformità stabiliti, questi dovrebbero coprire anche le applicazioni di AI ad alto rischio. In altri settori, è possibile raggiungere un livello adeguato di conformità per le applicazioni ad alto rischio con una combinazione di autovalutazione ex ante e audit e applicazione ex post

– Sebbene i sistemi di etichettatura volontaria possano essere utili ai consumatori o agli utenti finali in alcuni mercati, non crediamo che sarebbero efficaci in un campo così ampio come le applicazioni AI

– Riteniamo che il riconoscimento facciale sia una delle applicazioni più importanti dell’AI. Ecco perché il nostro ceo Arvind Krishna ha recentemente comunicato che IBM non offrirà più software di analisi o riconoscimento facciale IBM per scopi generici. IBM si oppone fermamente e biasimerà l’uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà di base o per qualsiasi scopo che non sia coerente con i nostri valori e princìpi di fiducia e trasparenza

Mentre la discussione sull’approccio normativo europeo è in pieno svolgimento, IBM continuerà a promuovere una visione che sia in linea con i princìpi di fiducia e trasparenza

– Lo scopo dell’AI è quello di aumentare, non sostituire, l’intelligenza umana

– Dati e insight appartengono al loro creatore

– Le nuove tecnologie, compresi i sistemi di intelligenza artificiale, devono essere trasparenti e spiegabili

Ora è il momento di trasformare questi princìpi in politiche reali per cittadini e imprese dell’Europa del futuro, ma anche del presente.

ultima modifica: 2020-06-30T18:46:20+00:00 da Alessandra Micelli

 

 

 

 

Chi ha letto questo articolo ha letto anche: