Skip to main content

Sanità, se l’AI Act non basta

Di Pietro Derrico e Matteo Ritrovato

L’Intelligenza artificiale determinerà l’avvento della quarta rivoluzione industriale: occorrerà non solo fissare le regole, normative e tecniche, ma soprattutto determinare il perimetro di sicurezza per non mettere a repentaglio la coesistenza sociale. L’analisi di Pietro Derrico e Matteo Ritrovato di Sihta, Società Italiana di Health Technology Assessment

Dopo circa due anni di lavori, le istituzioni europee (Parlamento, Commissione e Consiglio) dovrebbero approvare entro la fine del 2023 un testo condiviso, oggi denominato AI Act, la cui entrata in vigore dovrebbe essere stabilita in due o tre anni. Sarà la prima legislazione al mondo a (tentare di) regolamentare lo sviluppo e l’uso di sistemi basati sull’intelligenza artificiale, in funzione delle finalità e del correlato livello di rischio che tali sistemi possono presentare per i diritti umani, la sicurezza e la democrazia dei popoli.

La sfida per il sistema salute

Per gli esperti di Health technology assessment (Hta), quindi, rappresenta una novità di straordinaria rilevanza ma anche una sfida non banale sia per gli aspetti metodologici (il modello Eunethta, pensato soprattutto per tecnologie sanitarie tangibili come farmaci e dispositivi medici, non si applica automaticamente ai sistemi di intelligenza artificiale) sia per le ricadute su pazienti, professionisti e sistemi sanitari (dalla misurazione degli outcome di salute alla sostenibilità degli investimenti per i Paesi o le assicurazioni).

Il settore sanitario è interessato sotto due aspetti: i sistemi di intelligenza artificiale in quanto tali (in pratica software e algoritmi che “girano” su computer con finalità cliniche e sanitarie) e i dispositivi medici che basano il proprio funzionamento su algoritmi di intelligenza artificiale. In entrambi i casi l’AI Act prevede una classificazione di alto rischio; valutare e certificare sarà compito di entità private, in modo presumibilmente simile a quanto avviene nel settore dei medical device con gli organismi notificati.

Mettere in pratica i princìpi

Regolamentare queste nuove tecnologie è importante e necessario. Tuttavia possiamo evidenziare alcuni dubbi e perplessità, con la speranza che vengano presto fugati. Sono chiare e apprezzate le capacità dei legislatori europei di definire, nei regolamenti, i princìpi generali, etici, di trasparenza, così come è chiaro che l’unica possibile proposta di legge, oggi, sull’intelligenza artificiale non può che definire norme e principi generali, comprese le classi di rischio e le procedure di certificazione, per non essere già preistoria al momento della sua entrata in vigore. Quello che non sappiamo ancora è come tradurre e praticare questi princìpi. Del resto, trattandosi di tecnologia complessa e spesso oscura anche agli occhi dei maggiori esperti mondiali (basti ricordare il loro recente appello a una moratoria allo sviluppo per capire quali possono essere i rischi), è complesso immaginare leggi che non pongano un generico divieto all’uso (ostacolandolo anche in settori e per finalità virtuosi) ma che effettivamente mettano limiti, dove necessario, e ne definiscano anche le modalità di controllo.

Il confronto con i giganti

Come attuare i princìpi normativi in modalità operative? Le direttive e i regolamenti europei trovano declinazione pratica attraverso gli standard tecnici. Tali standard sono elaborati a livello internazionale in consessi dove siedono istituzioni, industrie, accademia, professionisti, esperti. Per questo occorre avere una conoscenza profonda della materia anche, se non soprattutto, sotto il profilo tecnico e produttivo. E da questo punto di vista è facile temere che l’Europa non regga il confronto con i giganti del settore. Basta osservare gli investimenti privati in R&S negli ultimi dieci anni: gli Stati Uniti sfiorano i 450 miliardi di dollari, la Cina supera i 200 mentre l’intera Europa a 27 arriva a stento a 50 miliardi di dollari. In questo momento sono in fase di elaborazione proprio gli standard tecnici di sicurezza, trasparenza, controllabilità, “spiegabilità”. È probabile, perciò, che gli europei avranno una certa difficoltà a fronteggiare la massa critica rappresentata da Usa e Cina.

Imparare dall’esperienza del Gdpr

A tutto ciò si aggiunge un ultimo aspetto, irrisolvibile perché dovuto a elementi intrinseci e incompatibili del percorso legislativo e della stessa IA: la tecnologia e gli algoritmi di intelligenza artificiale evolvono a una velocità che può rendere, di fatto, l’AI Act nella sua attuale formulazione poco efficace se non addirittura inutile. Laddove invece questa normativa europea si potesse applicare in modo efficace è importante precisare due concetti. Il primo è tratto dall’esperienza relativa al Gdpr: pur necessario per tutelare diversi aspetti della vita dei singoli cittadini, ha finito per rendere molto complesso (e, quindi, più oneroso e più costoso), se non impossibile, tutta una serie di attività di ricerca medico-scientifica. Basti pensare all’utilizzo secondario, per fini di ricerca, dei dati sanitari e amministrativi.

Usi leciti e illeciti

Al contrario tante attività, con finalità molto meno edificanti rispetto alla ricerca in tema di salute, non hanno (lecitamente o illecitamente, qui non importa) trovato gli stessi ostacoli. Allora non vorremmo che, anche con l’AI Act, si penalizzassero attività svolte a fin di bene (i cui attori, tipicamente, sono più portati al rispetto rigoroso delle regole) mentre nelle maglie, pur strette, della legge possano filtrare attività illecite. Anche a causa di comportamenti degli stessi soggetti che la legge vorrebbe tutelare: l’uso odierno che la gente fa dei social, di WhatsApp ad esempio, dove dati sensibili, che la legge tutela in maniera stringente, vengono messi alla mercè del mondo intero.

Verifiche necessarie

La seconda riflessione impatta uno dei settori applicativi ma a più alto rischio intrinseco: tutti i sistemi di intelligenza artificiale in sanità sono, al contempo, tecnologie sanitarie e come tali bisogna valutarli attentamente prima di adottarli. Ancora oggi non solo non abbiamo risultati univoci sul miglioramento dell’outcome di salute determinato dall’uso di tale tecnologia, né sono disponibili report completi di Hta, ma non è neanche chiaro come questi prodotti debbano essere misurati e, dunque, valutati. Che anche l’intelligenza artificiale debba essere sottoposta ad attente verifiche ce lo dimostra, altresì, quanto accaduto con l’applicazione oggi più famosa, ChatGpt, che dopo un hype ai limiti dell’isteria ha iniziato a mostrare numerose falle ed errori, fino ad arrivare a quelle che, gli sviluppatori di intelligenza artificiale generativa, definiscono allucinazioni.

Il perimetro di sicurezza

In conclusione, a detta di molti, l’intelligenza artificiale determinerà l’avvento della quarta rivoluzione industriale: occorrerà non solo fissare le regole, normative e tecniche, perché questi sistemi non ledano i diritti dei singoli (l’AI Act è un passo in tal senso), ma soprattutto il perimetro di sicurezza perché questa possa portare benefici reali su larga scala senza mettere a repentaglio la coesistenza sociale. Le preoccupazioni dei milioni di posti di lavoro a rischio, anche nel settore sanitario, non possono trovare sollievo soltanto dalla promessa, vagheggiata da imprenditori e sviluppatori di intelligenza artificiale, di un mondo in cui si lavorerà “per hobby”, a fronte di un ulteriore concentrazione di risorse economico-finanziarie e potere anche superiore agli stessi Stati. In tal senso servirà ben più di un AI Act, per ridefinire alla base le dinamiche politiche, economiche e sociali in cui cittadini, imprese big tech e Stati dovranno coesistere.

Articolo pubblicato su Healthcare policy n. VIII 



×

Iscriviti alla newsletter