Skip to main content

IA, ecco le nuove linee-guida dell’Oms per la salute collettiva

L’Intelligenza artificiale sta rivoluzionando ogni comparto, compresa la sanità. In particolare i modelli multi-modali di grandi dimensioni, meglio noti come Lmm, offrono grandi opportunità, ma non senza rischi. Per combatterli, arriva il documento dell’Organizzazione mondiale della sanità

L’Organizzazione mondiale della sanità (Oms) ha condiviso le nuove linee guida sull’etica e la governance dei modelli multi-modali di grandi dimensioni (Lmm) – un tipo di tecnologia di intelligenza artificiale generativa in rapida crescita e con importanti applicazioni nel comparto della salute. Le direttive comprendono una serie di oltre quaranta raccomandazioni rivolte a governi, imprese tech e strutture sanitarie, con l’obiettivo di promuovere un impiego etico e responsabile degli Lmm a tutela della salute collettiva.

Cosa sono gli Lmm

I modelli multi-modali di drandi Dimensioni sono una classe avanzata di sistemi di intelligenza artificiale che combinano e processano diverse tipologie di dati, come testo, immagini e suoni, per eseguire o simulare una varietà di compiti che normalmente richiedono la comprensione umana. Questi modelli sono definiti “multi-modali” perché possono interpretare e generare informazioni attraverso più modalità di input e output, e sono descritti come “di grandi dimensioni” per la loro vasta capacità di dati e la complessità delle loro architetture neurali. Gli Lmm, inoltre, sono particolarmente noti per la loro capacità di generare contenuti che appaiono umani e autoritativi, come la scrittura di testi o la creazione di immagini, senza essere stati esplicitamente programmati per ogni singolo compito. La loro versatilità li rende strumenti potenti per una vasta gamma di applicazioni, inclusi quelli nel campo della salute, dove possono contribuire alla diagnosi, alla personalizzazione delle cure, all’analisi di dati complessi e alla ricerca scientifica

Ferrar (Oms): “Necessarie trasparenza e politiche chiare”

“Il potenziale delle tecnologie IA generative per migliorare l’assistenza sanitaria è significativo, ma può essere realizzato solo se chi sviluppa, regolamenta e utilizza tali tecnologie ne affronta i rischi con piena consapevolezza. Sono necessarie trasparenza e politiche chiare per dirigere la progettazione, lo sviluppo e l’applicazione dei Lmm, al fine di ottenere risultati sanitari ottimali e ridurre le disuguaglianze esistenti nel settore”, ha riportato il direttore scientifico dell’Oms Jeremy Farrar, a margine della diffusione delle nuove linee-guida.

Le aree di applicazione

Le linee guida delineano cinque aree principali di applicazione dei in ambito sanitario: diagnostica e cura clinica, per esempio nell’interpretazione delle richieste scritte dei pazienti; uso diretto da parte dei pazienti, come nell’indagine di sintomi e terapie; gestione amministrativa, inclusa la documentazione e le attività di reportistica relativa alle visite dei pazienti nei registri sanitari elettronici; formazione medica e infermieristica, con la simulazione di casi clinici per gli studenti; ricerca scientifica e sviluppo farmaceutico, per l’identificazione di nuove sostanze attive.

Tutti i rischi, dall’intelligenza artificiale a quella umana

Pur rappresentando un alleato straordinario per il settore sanitario, i modelli multi-modali di grandi dimensioni non sono esenti da rischi. C’è infatti il pericolo, spesso condiviso dall’applicazione di tutte le nuove forme di tecnologia altamente innovativa come l’IA, che generino dichiarazioni false o imprecise che potrebbero poi condurre a scelte sanitarie inadeguate da parte degli utenti. Queste tecnologie, inoltre, potrebbero essere condizionate da dati di partenza viziati da bias legati a fattori come razza, etnia, genere e età. L’Oms, inoltre, ha evidenziato il rischio che gli Lmm possano accentuare le disuguaglianze nell’accesso alle cure, dovute a una distribuzione non equa delle risorse tecnologiche. Inoltre, vi è il pericolo che tali modelli inducano nei professionisti sanitari e nei pazienti un eccessivo affidamento all’automazione, trascurando errori altrimenti evidenti o relegando a un algoritmo decisioni che richiederebbero un giudizio umano. Non da ultimo, i modelli multi-modali di grandi dimensioni si trovano esposti a pericoli di cyber-security che potrebbero compromettere la riservatezza dei dati dei pazienti e l’affidabilità complessiva dell’assistenza sanitaria.

Le raccomandazioni per i governi

I governi, stando a quanto riportato dal documento, dovrebbero prioritariamente investire o comunque mettere a disposizione infrastrutture non a scopo di lucro o pubbliche, che includano risorse di calcolo e archivi dati aperti da mettere a disposizione di sviluppatori che facciano parte del settore pubblico, privato o dell’economia sociale purché questi, a loro volta, rispettino i principi etici condivisi. Inoltre, sarebbe peculiare l’adozione di normative e politiche che assicurino un utilizzo e un’applicazione degli Lmm nel campo sanitario e medico che rispetti, a prescindere dai potenziali rischi o benefici legati all’uso dell’Ia, i doveri etici e gli standard sui diritti umani, tutelando così valori fondamentali quali la dignità, l’autodeterminazione e la riservatezza individuale. Si invita, inoltre, all’individuazione e la designazione di un ente regolatore, sia esso preesistente o di nuova istituzione, con il compito di valutare e autorizzare l’impiego degli Lmm specifici per il comparto sanitario e medico, in base alle risorse disponibili. Da ultimo, implementare, tramite soggetti indipendenti, controlli e analisi di impatto post-lancio delle singole tecnologie. Tali verifiche e analisi, inoltre, dovrebbero essere rese pubbliche e fornire un dettaglio degli esiti.

Gioco di squadra

Fondamentale, per la creazione di sistemi Lmm sicuri ed efficaci, saranno secondo l’Organizzazione mondiale della sanità il coinvolgimento e la collaborazione fra tutti gli stakeholder coinvolti, dagli istituzionali all’industria, dalle strutture sanitarie ai pazienti, fino alla società civile. Coinvolgimento che dovrà toccare tutte le fasi di sviluppo e implementazione delle tecnologie, incluse quelle di controllo e regolamentazione.

×

Iscriviti alla newsletter