Skip to main content

Pro e contro dell’AI Act europeo. I cinque punti di Sironi

Di Matteo Sironi

Competizione economica e geopolitica, approccio basato sul rischio e non solo. L’accordo raggiunto tra Parlamento e Consiglio europeo analizzato da Matteo Sironi, executive board member di Humint Consulting

Primo: non c’è nulla di definitivo. È stato raggiunto un provisional agreement sull’intelligenza artificiale tra i negoziatori del Parlamento europeo e del Consiglio europeo. Nelle prossime settimane proseguiranno i lavori a livello tecnico, dove si gioca la partita vera.

Secondo: non si tratta di difendere i diritti delle persone ma è (quasi) esclusivamente competizione economica e geopolitica verso Stati Uniti e Cina. Il concetto di privacy è più presente nell’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence emesso dal presidente statunitense Joe Biden il 30 ottobre scorso. Come ha scritto su X il commissario europeo per il Mercato interno, Thierry Breton, il provvedimento “è molto più di un regolamento, è un trampolino di lancio per le startup e i ricercatori dell’Unione europea per guidare la corsa globale all’intelligenza artificiale”.

Terzo: non è un approccio basato sul rischio. Scrivere che ci sono tre categorie di “rischio” ed elencare cosa sia unacceptable (con eccezioni), high risk e tutto il resto minimal non è un risk-based approach in senso tecnico (come nell’ambito antiriciclaggio e finanziamento al terrorismo). Sono stati elencati dei “pericoli” poi raggruppati in tre categorie. Pensiamo alle definizioni di rischio e pericolo del decreto legislativo 81 del 2008: “pericolo” cioè proprietà o qualità intrinseca di un determinato fattore avente il potenziale di causare danni; “rischio” è la probabilità di raggiungimento del livello potenziale di danno nelle condizioni di impiego o di esposizione ad un determinato fattore o agente oppure alla loro combinazione. A quale delle due definizioni vi sembra più rispondente l’approccio dell’Unione europea?

Quarto: general purpose AI o foundation models? In assenza di definizioni legali, la comunità scientifica adotta un gergo basato sul “consenso”. È questo il caso di foundation model (termine coniato dall’AI Team di Stanford) che sono modelli di machine learning addestrati su un ampio spettro e quantità di dati generalizzati in grado di eseguire diverse attività – large language models, per tutti ChatGPT – come per esempio comprensione del linguaggio, elaborazione del linguaggio naturale, riconoscimento e generazione di immagini. L’accordo parla invece di general-purpose AI. Il comunicato stampa del Consiglio dell’Unione europea indica invece entrambe.

Cinque: eccezioni solo in ambito national security, military, defence, research and innovation e “people using AI for non-professional reasons”. Proibiti i giocattoli dotati di intelligenza artificiale che incitano a tenere comportamenti pericolosi (e senza intelligenza artificiale possono incitare a giocare coi fiammiferi?) così come biometric identification systems, vietati ma con esenzioni (ma chi ha detto che i sistemi di riconoscimento biometrico necessitino dell’intelligenza artificiale  per funzionare?). Proibito anche tutto ciò che è in grado di veicolare messaggi subliminali: non è possibile immettere sul mercato un prodotto con questa caratteristica, ma è già possibile chiedere a qualunque large language models di strutturare una comunicazione contente messaggi subliminali.

×

Iscriviti alla newsletter