Skip to main content

IA e ricerca biomedica, la svolta è iniziata

Due annunci dagli Stati Uniti ridisegnano il rapporto tra intelligenza artificiale e sviluppo dei farmaci. Opportunità concrete, ma anche nodi di policy ancora irrisolti

Negli Stati Uniti, due annunci ravvicinati segnano un punto di svolta nel rapporto tra intelligenza artificiale e ricerca biomedica. Da un lato, la Food and Drug Administration ha avviato un programma pilota per monitorare i trial clinici in tempo reale attraverso strumenti di AI e data science. Dall’altro, OpenAI ha presentato Gpt-Rosalind, il primo modello della sua serie dedicata alle scienze della vita. Il messaggio è lo stesso: l’AI può – e deve – ridurre i tempi con cui nuovi farmaci arrivano ai pazienti.

Il nodo del tempo morto

Oggi, portare un farmaco dalla prima sperimentazione all’approvazione richiede mediamente tra i 10 e i 12 anni. Secondo il commissario Fda Marty Makary, il 45% del tempo tra la fase 1 di un trial clinico e la presentazione della domanda di approvazione è “tempo morto”: raccolta dati, burocrazia, trasferimenti di informazioni tra siti di ricerca, produttori e agenzia regolatoria. Un collo di bottiglia che l’iniziativa Fda punta ad aggredire direttamente.
Il programma prevede che i dati dei trial vengano inviati alla Fda in tempo reale – anziché attraverso la catena tradizionale ricercatore-produttore-agenzia – consentendo all’agenzia di intercettare segnali di sicurezza ed efficacia man mano che emergono. Due prove pilota sono già in corso, su farmaci di AstraZeneca e Amgen. Il chief AI officer della Fda, Jeremy Walsh, ha stimato che questo approccio potrebbe ridurre i tempi complessivi di un trial clinico tra il 20 e il 40%.

Un modello chiamato Rosalind

Sul fronte privato, OpenAI ha annunciato Gpt-Rosalind – il nome è un omaggio alla chimica britannica Rosalind Franklin, figura chiave nella scoperta della struttura del Dna – un modello di ragionamento avanzato pensato per accelerare la ricerca di base, la scoperta di farmaci e la medicina traslazionale. Il modello è progettato per sintetizzare evidenze, generare ipotesi e supportare l’analisi in campi come la genomica, la proteomica e la biochimica.
L’accesso è per ora riservato a clienti qualificati – tra cui Amgen, Moderna e l’Allen Institute – nell’ambito di un programma a ingresso controllato pensato per limitare i rischi di uso improprio.

Le implicazioni per la governance

I due annunci sollevano questioni rilevanti sul piano della policy, che sarebbe un errore sottovalutare.
Il primo riguarda la qualità e la sicurezza dei dati: il programma Fda sarà allineato al framework di gestione del rischio AI sviluppato dal National Institute of Standards and Technology, e l’agenzia ha aperto una consultazione pubblica per definire priorità e perimetro dell’iniziativa. È un approccio prudente, ma la strada verso standard condivisi e verificabili è ancora lunga.

Il secondo riguarda l’accesso. Se i modelli AI diventano infrastruttura critica per la ricerca biomedica – accelerando l’iter regolatorio e comprimendo i costi di sviluppo – si pone una domanda strutturale: chi beneficia di questi guadagni? Ricerca pubblica e privata partiranno con le stesse opportunità, o il vantaggio competitivo si concentrerà ulteriormente nei grandi player industriali?

Il terzo riguarda i rischi di biosicurezza. Una parte della comunità scientifica – più di 100 ricercatori hanno firmato un appello internazionale – chiede controlli più stringenti sui dati biologici usati per addestrare i modelli AI, per prevenire usi impropri nella progettazione di agenti patogeni. OpenAI dice di voler riservare l’accesso a organizzazioni con “solidi controlli di sicurezza e governance”: un impegno che merita monitoraggio nel tempo.

Cosa osservare nei prossimi mesi

L’estate sarà un banco di prova: la Fda prevede di lanciare entro l’estate un programma pilota più ampio, aperto a commenti pubblici. Sarà l’occasione per capire se l’approccio regge alla scala, se i segnali in tempo reale producono davvero decisioni più rapide e sicure, e se il quadro di governance regge alle pressioni – commerciali e geopolitiche – che inevitabilmente accompagnano queste innovazioni.
Per i sistemi sanitari europei, la partita non è solo tecnologica. È anche normativa: con l’AI Act già in vigore e le linee guida Ema sull’AI in evoluzione, il rischio è che standard divergenti tra Usa e Ue creino asimmetrie nei tempi di accesso ai farmaci – a svantaggio, alla fine, dei pazienti.


×

Iscriviti alla newsletter