Skip to main content

Così l’Europa vuole regolare l’Intelligenza Artificiale

Allarme IA: l’Ue è in ritardo su investimenti e sviluppo. Il rapporto

Una bozza trapelata dalla Commissione europea propone una delimitazione – ancora vaga – per il raggio di azione delle IA. Si tratta di camminare sul filo del rasoio tra il mantenimento delle capacità tecnologiche e l’etica dei diritti fondamentali. Ecco come l’Ue prova a immaginare il futuro

Bruxelles sta muovendo i suoi primi, incerti passi verso una regolamentazione olistica dell’intelligenza artificiale (IA), obiettivo dichiarato dalla presidente della Commissione europea, Ursula von der Leyen, al suo insediamento.

A più di  un anno dalla pubblicazione del white paper europeo sull’IA, una “dichiarazione di intenti” della cornice di obiettivi e valori entro cui la Commissione intende muoversi, un documento ottenuto e pubblicato dalla giornalista di Politico Melissa Heikkilä rivela in termini più pratici, sebbene ancora poco definiti, il tipo di misure al vaglio dell’Europa.

Dato che le potenzialità e l’onnipresenza di questi strumenti (che già interessano miliardi di esseri umani) non farà che crescere, innervando quasi ogni aspetto del mondo iperconnesso e tecnodipendente che ci si staglia innanzi, non si esagera nel dire che le scelte operate anzitempo influenzeranno in maniera decisiva il futuro della società, indirizzando lo sviluppo e gli scopi delle IA a cui verrà permesso di operare sul territorio e nella cibersfera europei. Tocca dunque all’Ue, novella Asimov, prendere la palla al balzo e determinare i limiti entro i quali l’IA potrà operare.

La lista di sistemi IA che la bozza mette a bando include quelli “creati o utilizzati in modo da manipolare il comportamento, le opinioni o le decisioni umane […] di modo che una persona possa comportarsi, formare un’opinione o prendere una decisione a suo danno”; quelli utilizzati per la sorveglianza indiscriminata e generalizzata; quelli pensati per calcolare punteggi sociali; quelli “che sfruttano informazioni o predizioni e una persona o un gruppo di persone per attaccare le loro vulnerabilità”.

Queste regole, ancora in stato embrionale, andrebbero a impattare qualsiasi tipo di IA venduta o operata a scopi commerciali (come quelle già presenti nei social) e quelle pensate per la sfera pubblica. Sono esenti le varianti per uso militare o utilizzate dalle autorità per “salvaguardare la sicurezza pubblica”, in modo da non svantaggiare le applicazioni difensive della tecnologia rispetto ad altre potenze come gli Usa o la Cina, entrambe più progredite nello studio e nell’implementazione di IA.

Si tratta di definizioni ancora molto vaghe, che potenzialmente si prestano a interpretazioni contrastanti e pongono problemi etici rilevanti. Per esempio, è difficile stabilire con certezza cosa rappresenti un danno per una persona. “Inoltre, a chi starebbe deciderlo?” si è chiesto lanalista Daniel Leufer, il quale crede che le regole del futuro andrebbero applicate a tutte le IA destinate alla sfera pubblica a prescindere dal loro grado di sicurezza perché “tipicamente le persone non possono scegliere di interagire o meno con un sistema IA nel settore pubblico”.

Sono più chiare invece le ripercussioni per un’azienda che svilupperà un servizio proibito ai sensi di queste regole, o si rifiuterà di fornire informazioni corrette sul loro funzionamento: una multa che può arrivare al 4% delle entrate globali, simile a quelle già previste per il GDPR (l’architettura legale europea di protezione dei dati). La bozza prevede anche l’obbligo di dotare tutti i sistemi IA del cosiddetto kill switch, un interruttore o equivalente che permetta di spegnerli istantaneamente alla bisogna.

È chiara anche l’intenzione di Bruxelles di tracciare una “terza via” tra il liberissimo mercato Usa (dove casi come quello di Clearview AI hanno già generato battaglie legali) e l’autoritaria Cina, dove la sorveglianza di massa tramite riconoscimento facciale è già realtà e dove il sistema di punteggi sociali, che tiene traccia di ogni aspetto della vita di un cittadino e ne impatta i servizi a disposizione, è in stato avanzato di sperimentazione.

E però il ritardo dell’Europa in fatto di sviluppo tecnologico rischia di svantaggiarla su molti piani. Motivo per cui la Commissione europea ha lanciato la proposta di creare un Consiglio Ue-Usa per il commercio e la tecnologia, raccolta con entusiasmo dalla Camera di Commercio statunitense, per coordinarsi su tutto ciò che concerne il tech, dalla regolamentazione alla tassazione, passando per la cibersicurezza.

L’approccio europeo pone comunque l’Unione all’avanguardia della regolamentazione in campo IA, così come accadde nel 2018 con il GDPR (che pur non essendo perfetto è tuttora lo standard mondiale per la protezione dei dati dei cittadini). E visto il focus europeo sui valori alla base delle regole, volte a evitare la disgregazione della privacy e delle libertà individuali come accade nel sistema cinese, sembra che l’Ue e gli Usa siano destinati a percorrere lo stesso sentiero.


×

Iscriviti alla newsletter