Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

Si può davvero regolare l’intelligenza artificiale? Il dibattito tra giuristi

L’Unione europea è alle prese con la sfida titanica di creare il nuovo umanesimo digitale. La strada, tra algoritmi “black box”, regole fumose, livelli di rischio e protezione della privacy, è in salita. Al webinar della Fondazione Leonardo un panel di esperti e giuristi discute della proposta di regolamentazione dell’intelligenza artificiale

Si parla da tempo del salto tecnologico che rappresenta l’intelligenza artificiale (IA). I vantaggi sono immensi, come anche i rischi che questa tecnologia comporta per i diritti fondamentali della persona e la libertà stessa. Lo sviluppo dell’IA nel mondo tende a riflettere la società di riferimento, come dimostrano il caso cinese – in cui viene già impiegata come strumento di sorveglianza e repressione – e quello americano – deregolamentato, un Far West che stimola l’innovazione ma lascia il campo aperto a un certo livello di abuso della tecnologia.

In questa corsa all’oro digitale l’Unione europea è un caso a parte. Il settore tecnologico è in netto ritardo rispetto alle altre superpotenze, ma le autorità europee, nel colmare il divario, vogliono giocare d’anticipo sulla regolamentazione dell’IA, così come hanno fatto con le leggi sul trattamento dei dati (GDPR).

La proposta in materia pubblicata il 21 aprile dalla Commissione (e anticipata da Formiche.net) traccia i primi confini e indirizza il dibattito, ma c’è ancora tanto lavoro da fare. E realtà come il Laboratorio sulla transizione digitale della Fondazione Leonardo sono già attive nel promuovere il dibattito, creare le basi digitali per la condivisione di dati e incentivare uno sviluppo etico dell’IA. Perché l’argomento è talmente vasto, denso e complesso da richiedere un approccio olistico alla regolamentazione di questa tecnologia rivoluzionaria.

Sviluppo sì, ma incardinato sulla persona

La Fondazione ha tenuto un webinar in cui un panel di esperti si è confrontato sulla proposta della Commissione. “Viviamo non in un’epoca di cambiamento, ma in un cambiamento d’epoca”, ha commentato Alessandro Pajno, presidente emerito del Consiglio di Stato, aprendo i lavori; l’IA è uno “strumento assai utile” ma occorre svilupparla in aderenza “ai valori costituzionali e quelli della Carta di Nizza”. S’impone dunque il bisogno di sviluppare una “disciplina sovranazionale ed eurounitaria” che attinga dalle diverse culture giuridiche, industriali, sociali ed economiche.

Già oggi questa tecnologia può “aiutare la pubblica amministrazione, l’occupazione, colmare divari e garantire accesso più ampio a istruzione e cultura, oltre ad agevolare l’impresa”, ha detto Marco Macchia, professore di diritto amministrativo all’Università di Roma Tor Vergata e responsabile del Laboratorio sulla transizione digitale. Perciò va accolta con favore la volontà di unire lo sviluppo dell’hub di innovazione europeo (e il piano di investimenti del Next Generation EU, in cui la digitalizzazione ricopre un ruolo chiave) a delle linee guida per “ancorarlo a una visione antropocentrica”.

Le prime criticità: mercato e livelli di rischio

Gli esperti presenti hanno convenuto che le linee guida proposte dalla Commissione, seppur promettenti, siano ancora da migliorare. Per Andrea Simoncini, professore di diritto costituzionale all’Università di Firenze, la proposta nel suo insieme “è un compromesso asimmetrico, in cui l’esigenza di creare un contesto favorevole a un mercato europeo dell’IA ha preso la mano rispetto all’idea di configurare un contesto altrettanto protettivo”.

Anche l’approccio basato sul rischio descritto dalla Commissione ha sollevato qualche sopracciglio. I parametri dei quattro livelli di rischio proposti per valutare un prodotto IA (accettabile, basso, alto, proibitivo) sono ancora troppo vaghi per essere efficaci e, secondo Simoncini, non tengono conto della valutazione d’impatto generale. Serve – urgentemente – mettere a punto il sistema di gestione del rischio, una data governance che controlli la qualità dei dati e operi per prevenire i bias.

In particolare, la formulazione dell’articolo 13 della proposta (incentrato sulla trasparenza dei dati) ha lasciato il giurista perplesso. Il testo recita: “i sistemi di IA devono essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo in modo appropriato”, ma come evidenzia Simoncini, questo non equivale a “comprensibile”.

Black box: il problema dell’explainability

Il limite è tecnico, ha spiegato Carlo Cavazzoni, a capo della divisione di ricerca e sviluppo computazionale di Leonardo; sovente i modelli IA fanno predizioni molto precise, ma il modo in cui le fanno è incomprensibile ai ricercatori. Insomma, non è provato che il concetto di explainability sia applicabile all’IA.

“Tra dieci anni non si parlerà di IA ma di cognitive computing”, ha spiegato l’informatico, delineando un futuro (forse già la seconda metà del secolo) in cui i processi delle macchine “senzienti” saranno troppo complessi per la comprensione umana. Da qui nasce un altro quesito: a che pro esercitare un controllo umano – previsto dalla proposta – data la complessità dell’IA?

Citando un altro punto controverso della proposta europea riguardo al livello di rischio “inaccettabile”: “come faccio a definire se un sistema mi condiziona subdolamente se sono subdolamente condizionato?”. Da qui la provocazione stimolante di Cavazzoni: paradossalmente, il compito di controllo sarebbe da dare a un’altra IA. L’uomo sarebbe dunque destinato a lasciare la leadership ai sistemi automatici per una mera questione di capacità tecnica.

Detto questo, il diritto alla privacy può sancire dei limiti. Oggi ognuno di noi ha uno o più “gemelli digitali”, ha spiegato Cavazzoni, aggregati di dati personali gestiti da un ente come Facebook. Proprio questo genere di dati sono la “benzina” dell’IA, che in un futuro nemmeno troppo lontano potrebbe usarli per prevedere la comparsa di malattie o calcolare con estrema precisione una polizza assicurativa. Ma se la “chiave” di questi dati non è in mano ai legittimi proprietari, ossia le persone, il rischio di abuso è immenso.

Cucire il diritto addosso all’IA: il fronte europeo

“Siamo ai primi passi di una maratona”, ha commentato Massimo Comparini, amministratore delegato di Thales Alenia Space Italia; “sappiamo che l’accresciuta capacità di calcolo porterà a un elemento di discontinuità per cui l’IA potrà lavorare su sé stessa e darsi la governance che noi ci apprestiamo a dare”.

La complessità dell’impresa regolatoria che dovrà affrontare l’Europa richiederà un approccio corale e interdisciplinare per trovare quella che Oreste Pollicino, professore di diritto costituzionale e diritto dei media all’Università Bocconi, ha chiamato la “terza via possibile tra quella libertaria statunitense e quella cinese, in un capitalismo digitale ben temperato”. A cui servono ancora molti “temperamenti”.

A questo stadio sono più le domande delle risposte che emergono dalle linee guida della Commissione europea, come anche dalla tecnologia in questione. La trasparenza tecnologica è forse impossibile, data la complessità dell’IA “black box”, ma imperativa per i valori su cui si impernia l’Ue. Lo stesso vale per privacy e sicurezza personale, che non sono ancora garantite dai livelli di rischio identificati, troppo vaghi e soggetti a interpretazione.

Perciò il diritto va “cucito addosso all’IA”, nelle parole di Carlo Casonato, professore di diritto costituzionale all’Università di Trento. E deve essere aperto, perché i principi che valgono per altre tecnologie non varranno per l’IA; aggiornato, per seguirne le evoluzioni senza minare le basi giuridiche; attento, per monitorare l’impatto esteso di questa tecnologia rivoluzionaria. Di più: il diritto stesso può guidare lo sviluppo dell’IA europea e non viceversa.

Dal Gdpr, ha spiegato Antonello Soro, già presidente dell’Autorità garante per la protezione dei dati personali, si mutuano i valori essenziali: l’approccio basato sul rischio, l’obbligo di trasparenza, l’articolazione del sistema sanzionatorio riferito al fatturato delle aziende, le norme riguardo l’extraterritorialità.

Da qui la forza del fronte europeo: “scegliendo di normare per prima, l’Europa oppone l’egemonia valoriale a quella commerciale, tale da imprimere al progresso l’antropocentrismo”, ha sottolineato Soro. Con l’azione di orientamento iniziata con la proposta europea si può anteporre quello che è “giuridicamente desiderabile a quello che è tecnicamente possibile”. Il percorso è in salita, ma la direzione è quella giusta: adesso occorre mettersi al lavoro.

×

Iscriviti alla newsletter