Il regolamento europeo sull’AI pone numerose questioni. Ma va riconosciuto il grande pregio di portare sul terreno politico le questioni di punta del digitale, ovvero quelle del controllo delle applicazioni basate su algoritmi nel nome dei diritti e dei valori. Il commento di Jean-Pierre Darnis, consigliere scientifico allo Iai e ricercatore associato alla Fondation pour la recherche stratégique

La presentazione del nuovo regolamento europeo sull’intelligenza artificiale (AI) da parte dei commissari Thierry Breton e Margrethe Vestager rappresenta un punto di svolta, frutto di un lavoro già iniziato nel 2018.

La creazione di un regime giuridico sull’AI, una vera e propria novità a livello mondiale, obbedisce a due tipi di logiche. La prima è quella di prolunga l’azione di tutela/regolamentazione che caratterizza l’approccio europeo, già in atto con il Regolamento generale sulla protezione dei dati (Gdpr). La seconda è di porre l’Unione Europea all’avanguardia dell’uso dell’AI, in modo tale da determinare un vantaggio comparativo, anche da un punto di vista economico, con la scommessa che lo sviluppo di un’AI regolamentata e quindi “etica” si farà a beneficio degli operatori europei in grado di integrare queste norme nelle loro strategie di sviluppo.

Propone l’instaurazione di un comitato europeo per l’intelligenza artificiale, una vera e propria autorità a livello europeo ma anche una forma di registro centralizzato delle AI. Certamente la creazione di istituzioni nuove rappresenta sia una necessità, con il potenziamento del ruolo di controllo da parte delle autorità degli Stati membri, sia un rischio per l’enormità del lavoro di controllo che potenzialmente potrebbe svolgere.

Uno degli aspetti più salienti di questo poderoso testo, lungo 108 pagine, sta nella divisione delle AI in varie categorie di rischio. Alcune applicazioni AI andrebbero bandite perché troppo rischiose (come la manipolazione di comportamenti tramite tecniche subliminali oppure le tecniche di “controllo sociale”) mentre altre ritenute ad “alto rischio” potrebbero essere autorizzate con una serie di misure di trasparenza e controllo. Per le AI ad “alto rischio” sono anche previste delle forme di controllo umano.

L’identificazione biometrica tramite AI è al centro dell’attenzione: dovrebbe essere generalmente vietata, ma si profila una possibilità di autorizzazione temporanea per alcuni casi legati a un’eccezionale attività di mantenimento della sicurezza, per esempio nel caso di pericolo terroristico. Già questa possibilita apre dibattiti fra chi ritiene che il semplice fatto di permettere un uso eccezionale apra la porta ad abusi nell’uso della tecnologia.

Al centro di questa valutazione troviamo una filosofia già in atto con la Gdpr, quella dell’analisi dell’impatto del rischio, che viene poi “incentivata” dalla minaccia di sanzioni. Si tratta di introdurre griglie di valutazione basate su norme giuridiche e valoriali, un approccio che per certi versi si affianca a quello dei sostenitori di un controllo etico degli algoritmi, come espresso nella firma a Roma nel febbraio 2020 della Call for AI ethics, che ha visti impegnati sia il governo italiano sia la Pontificia accademia per la vita accanto ad aziende tecnologiche.

Stiamo già assistendo ai termini di un dibattito fra quelli che vedono questo regolamento come troppo lasco, anche perché autorizza alcune forme di AI con biometria, e altri, nella comunità tech, che vedono queste norme come freni per chi le rispetta ponendoli in posizione svantaggiata rispetto a chi potrà, per esempio in Cina, sviluppare “liberamente” una serie di tecnologie. L’idea di un sviluppo “libero” da parte cinese va inoltre poi riformulata, in quanto il controllo politico esercitato sulla produzione tecnologica e il suo uso in Cina appare molto stringente. La differenziazione si fa sul non rispetto di diritti paragonabili a quelli europei ma non bisogna pensare a una vera e propria “libertà” cinese nella produzione e l’uso di applicazioni basate su algoritmi.

Questo testo pone il problema del collocamento dell’Unione europea fra Cina e Stati Uniti. Da una parte include numerosi riferimenti sia alla protezione dei diritti fondamentali sia ai “valori europei”, il che illustra una presa di distanza nei confronti di regimi non democratici come la Cina. Il rifiuto delle applicazioni di AI sul “controllo sociale” rappresenta inoltre una netta differenziazione nei confronti del regime di Pechino.

Stiamo anche osservando alcune reazioni ambivalenti da parte degli ambienti statunitensi. Se da una parte si teme che i freni europei possano ulteriormente beneficiare allo sviluppo poco controllato di AI cinesi, d’altro canto altri laudano l’approccio europeo, o perlomeno guardano con interesse la volontà di regolare il comparto. Anche negli Stati Uniti ci si interroga su un approccio che lascia la tecnologia svilupparsi senza freni, per poi eventualmente correre ai ripari in caso di problemi, per quanto sia possibile. L’approccio europeo prova a fare il contrario, ovvero a regolamentare anche sviluppi futuri, ma da questo punto di vista bisogna chiedersi fino a che punto sia possibile.

Il testo della Commissione pone quindi numerose questioni. Però va riconosciuto il grande pregio di portare sul terreno regolamentare, e quindi politico, le questioni di punta del digitale, ovvero quelle del controllo delle applicazioni basate su algoritmi nel nome dei diritti e dei valori. Si tratta niente di meno che di rinnovare il fondamentale esercizio della sovranità politica e quindi democratica nel contesto digitale. Il futuro può sembrare incerto, si apriranno sicuramente molti dibattiti e battaglie fra governi, partiti politici e gruppi di pressione, ma ben venga l’iniziativa politica che ci riporta a una necessaria dialettica su attività che già condizionano il nostro quotidiano. Infine, va sottolineata l’importanza del lavoro e la visione delle istituzioni europee in materia, rimarchevole illustrazione dell’utilità e del progresso dell’Unione europea.

Condividi tramite