L’accordo siglato di recente dal colosso farmaceutico Merck per usare il software di Palantir Technologies e analizzare volumi enormi di dati utili allo sviluppo e alla commercializzazione di prodotti farmaceutici è il chiaro segnale che scienza della medicina e tecnologia saranno sempre più collegate, anche e forse soprattutto quando la tecnologia si esprime attraverso l’analisi e l’intelligenza dei Big data. Merck e a Palantir hanno stretto un’alleanza a lungo termine di cui ovviamente beneficiano le aziende partner grazie al revenue-sharing ma anche il paziente se il risultato sono farmaci più efficaci. A questo servono infatti i Big data, e la loro analisi, nell’industria della salute: a creare farmaci su misura, a migliorare la qualità delle cure e a evitare sprechi di denaro. Ma non mancano sfide e incognite ancora da delineare, come si analizzerà nel seminario in programma il 2 febbraio al Centro studi americani “Pharma Tech dialogue”, sulle innovazioni tecnologiche del XXI secolo che stanno ridisegnando il mondo dell’healthcare e della farmaceutica, promosso da Formiche con la collaborazione di Farmindustria (al seminario parteciperanno tra gli altri Massimo Scaccabarozzi presidente di Farmindustria, Roberto Ascione Ceo di Healthware International, Giovanni Saggio docente di Tor Vergata e Fabrizio Landi presidente della Fondazione Toscana Life Sciences).
IN POLE POSITION PER LA DIGITALIZZAZIONE
La strategia di digitalizzazione della ricerca di Merck non rappresenta un caso isolato. GlaxoSmithKline usa per l’R&D prodotti sviluppati dal McLaren Applied Technologies, un team che con le sue tecnologie per analisi dei dati, costruzione di modelli matematici e simulazioni non serve ovviamente solo la Formula1. Lo stesso team si è alleato con l’ospedale britannico Birmingham Children’s hospital e con l’Imperial College London fornendo ancora una volta il suo know-how sulla raccolta in tempo reale e analisi dei dati relativi a specifici pazienti e ora è l’intero sistema sanitario nazionale britannico (NHS) a considerare l’adozione di queste tecnologie per migliorare la qualità delle cure, ridurre i tempi di degenza e i costi.
BIOBANCHE PER LA SALUTE
La grande promessa dei Big data biologici è la creazione di banche dati sul funzionamento dell’organismo umano e le malattie che ancora una volta potenziano la ricerca e sviluppo delle cure, affinano i trial, permettono una prevenzione più efficace e cure personalizzate. BC Platforms, azienda svizzero-finlandese che gestisce dati clinici e genomici con una propria piattaforma di analytics, realizzerà, col cloud Microsoft Azure e la start up messicana Codigo46, la più grande biobank dell’America Latina, con l’obiettivo di mettere insieme dati genomici di 1 milione di persone in tre anni. L’obiettivo è di fornire una base più solida sia agli studi accademici sia allo sviluppo e alla commercializzazione delle cure.
TRA TSUNAMI E BIG DATA “CATTIVI”
“Il nostro lavoro è sempre più data-driven”, ha detto Stephen Cleaver, capo dei sistemi IT di Novartis Institutes for Biomedical Research a Cambridge, Massachusetts. “Usiamo il deep learning, parte dell’intelligenza artificiale“. Ma ovviamente gestire milioni di dati personali comporta alcuni problemi. Da un punto di vista tecnico il primo è la qualità del dato: come è stato raccolto, quanto tempo fa, è affidabile? Se non ci sono standard precisi, e visto che i dati derivano da fonti molteplici e si presentano in forma disparata (estratti da trial, da visite mediche, sondaggi, ecc.) si rischia di avere una massa di “bad” Big data, dice Doug Given, direttore di Health2047, società di consulenza californiana.
I dati vanno inoltre condivisi tra istituti scientifici e organizzazioni sanitarie e ciò va fatto in modo sicuro (sia per evitare intrusioni e furti che per proteggere la riservatezza dei pazienti) e in modo efficace, ancora una volta con standard che permettono a database separati di dialogare. E’ la biologia data-centrica di cui parla anche la sociologa italiana Sabina Leonelli, professoressa alla University of Exeter, nel libro “Data-Centric Biology: A Philosophical Study”: lo tsunami di informazioni biologiche ha dietro precisi modelli e i dati raccolti vanno fatti parlare tra loro con sistemi di analisi e sintesi che mettono insieme linguaggi nuovi e competenze finora separate, il medico con l’informatico, il biologo col bioingegnere e il matematico.
QUESTIONE DI VALORE
Al tempo stesso la tecnologia applicata al settore sanitario rappresenta un’enorme opportunità di creare valore: efficienza e risparmi per case farmaceutiche e ospedali, sviluppo tecnologico, start up innovative e occupazione per personale altamente qualificato nei settori Big data, analytics, intelligence. Uno studio di McKinsey Global Institute ha calcolato che applicare strategie guidate dalla conoscenza estratte dai Big data per prendere decisioni creerebbe un valore di 100 miliardi di dollari nel solo sistema sanitario degli Stati Uniti ottimizzando l’innovazione, migliorando l’efficienza della ricerca e dei trial clinici, dando nuovi strumenti a medici, consumatori, ma anche assicuratori e regolatori. Secondo McKinsey, le società farmaceutiche e il mondo dell’healthcare in genere investono ancora troppo poco in Big data e analytics, nonostante i benefici potenziali, perché temono – a torto – che la spesa superi la capacità di accrescere i profitti.
In Italia però non manca una forma di Big data sanitario visto che il Cineca, consorzio che riunisce il 90% delle università statali italiane, ha sviluppato l’osservatorio Arno che raccoglie dati delle prestazioni erogate dal sistema sanitario nazionale al singolo cittadino e aggrega le prescrizioni farmaceutiche di milioni di pazienti. Il tutto viene messo a disposizione di medici e operatori sanitari, via Internet, con accesso riservato e protetto: un enorme database integrato e omogeneo che contribuisce a conoscenze aggiornate e specifiche per settori e patologie.