• Background Image

    Dal farmaco alle scelte

15 novembre 2016

Dal farmaco alle scelte

Big data e innovazione farmaceuticaLuca Pani
Le banche dati sanitarie per la valutazione post-marketing dei farmaci Gianluca Trifirò, Valentina Ientile
Interrogare i flussi amministrativi Nello Martini

Big data e innovazione farmaceutica

Il punto di vista regolatorio

Luca Pani, Direttore generale Agenzia italiana del farmaco

Le potenzialità dei big data nell’evoluzione della scienza medica e regolatoria sono ormai riconosciute a livello globale, ma la portata e l’impatto del fenomeno richiedono una rivisitazione radicale delle competenze e degli strumenti finora adottati per guidare le decisioni politiche, regolatorie e cliniche nel mondo del farmaco e della sanità.

Se per le autorità regolatorie la sfida cruciale dei prossimi anni sarà definire, riconoscere e premiare l’innovazione farmaceutica per garantire ai cittadini l’accesso a medicinali efficaci a prezzi sostenibili, non meno importante sarà la capacità di mettere a valore l’enorme mole di dati generati dai grandi database sanitari, dai registri medici elettronici, dalla digitalizzazione delle pubblicazioni scientifiche e dalla proliferazione di dispositivi medici personali.

Il “diluvio” di dati sanitari non è di per sé un valore e può costituire persino un’insidia per la salute e per la privacy, specie se gli interessi economici e l’utilizzo improprio dovessero prevalere sugli aspetti etici.

I big data in farmacologia sono grandi aggregazioni di informazioni legate alle popolazioni che assumono i farmaci, come ad esempio i dati biometrici, i dati relativi alle abitudini e agli stili di vita, all’interazione e agli effetti dei trattamenti farmacologici, all’andamento naturale delle patologie, alla durata della risposta farmacologica nel tempo.

Intanto è bene chiarire che il “diluvio” di dati sanitari non è di per sé un valore e può costituire persino un’insidia per la salute e per la privacy, specie se gli interessi economici e l’utilizzo improprio dovessero prevalere sugli aspetti etici e sulla gestione razionale e responsabile delle informazioni sensibili.

Una prima questione riguarda quindi le fonti e la qualità dei database, perché soltanto i dati acquisiti e gestiti correttamente sono in grado di produrre quelle evidenze validate che servono al processo decisionale. In altre parole, occorrerà passare dai big data agli smart data, cioè essere in grado di generare e selezionare i dati “giusti”, riducendo al minimo il rischio di errore, per svolgere analisi corrette e assumere decisioni informate e autorevoli. Sarà quindi fondamentale riuscire a integrare conoscenze di domini differenti e tradizionalmente non comunicanti, in un concorso di intelligenze e di competenze tecniche e scientifiche mai sperimentato, per valorizzare al meglio le straordinarie potenzialità dell’information technology applicata alle scienze della vita e, nel nostro specifico, ai processi regolatori lungo l’intero ciclo di vita del farmaco.

 Occorrerà passare dai big data agli smart data, cioè essere in grado di generare e selezionare i dati “giusti”.

Lo sviluppo clinico di molecole sempre più orientate a target mirati e popolazioni di studio definite in base a specifici biomarcatori richiede la capacità di condividere e integrare i risultati prodotti nei trial in modo da ottenere dati scientificamente significativi che possono indirizzare la ricerca futura, incidere sui processi regolatori e contribuire alla definizione di modelli teorici e computazionali in grado di simulare effetti su popolazioni più ampie.

Dalla pratica clinica provengono inoltre informazioni preziose su come i farmaci agiscono nella vita reale su un numero migliaia o milioni di volte superiore a quello delle popolazioni studiate nei trial, e sugli effetti a lungo termine per la rivalutazione dell’efficacia e del profilo beneficio-rischio. Per i regolatori, acquisire e analizzare in modo sistematico questa enorme mole di dati post-marketing significa poter contare su un patrimonio di conoscenze in continua evoluzione in grado di colmare i gap di evidenze al momento dell’autorizzazione, specie per quei farmaci che vengono immessi in commercio con procedure accelerate; significa anche poter gestire gli schemi di rimborso condizionato, informare le attività di health technology assessment e il processo di rinegoziazione, migliorare l’identificazione delle popolazioni target e verificare l’appropriatezza prescrittiva.

big-data-smart-data

È ciò che l’Aifa sta facendo da alcuni anni con i suoi database: la banca dati OsMed, la Rete nazionale di Farmacovigilanza e, soprattutto, i registri di monitoraggio, che consentono una gestione telematica di tutte le fasi di trattamento (eleggibilità, dispensazione, follow-up), rappresentando una risorsa informativa preziosa per il nostro Servizio sanitario nazionale.
In conclusione, l’ingresso dei big data nel mondo della farmacologia porta con sé un potenziale grande vantaggio per la salute dell’uomo. Il beneficio che ne consegue è però legato alla capacità di incrociare enormi masse di dati e analizzare così una quantità ineguagliata di informazioni, riferite a milioni di pazienti e pertanto in grado di consentire analisi di ampia portata mai tentate sinora. Tutto ciò richiede integrazione delle competenze e aggiornamento, condivisione delle conoscenze, collaborazione tra stakeholder (pazienti e medici in primis) e cooperazione tra attori pubblici e privati, ma anche un quadro giuridico in grado di contemperare trasparenza, accesso alla conoscenza, tutela dei dati personali e diritto alla riservatezza su informazioni sensibili come quelle che riguardano la salute.

novembre 2016


Le banche dati sanitarie per la valutazione post-marketing dei farmaci

Tra potenzialità, limiti e aspettative

Gianluca Trifirò, Valentina Ientile, Dipartimento di Scienze biomediche, odontoiatriche e delle immagini morfologiche e funzionali Università di Messina

Nell’ultimo decennio il termine “big data” è stato applicato in differenti settori e con diversi significati. In generale, il concetto di big data può essere spiegato attraverso il paradigma delle 4 V (volume, velocity, variety, veracity), vale a dire, enormi quantità di dati, rapidamente accessibili, estremamente etrogenei, e che richiedono approcci analitici innovativi, quali algoritmi di machine learning, per fornire risultati utili e accurati ai decision maker negli ambiti in cui si applica [1]. Di recente, il tema dei big data è diventato un argomento molto attenzionato anche in ambito sanitario, dove esiste una enorme e crescente quantità di informazioni in formato elettronico disponibili sotto forma di cartelle cliniche informatizzate, archivi di medicina generale, flussi amministrativi, registri di patologia e di monitoraggio dei farmaci, ecc. (vedi figura). Laddove tali dati fossero opportunamente elaborati e resi interoperabili tra le diverse figure coinvolte nella generazione degli stessi rappresenterebbero una grande opportunità per trasformare in evidenze scientifiche vaste moli di informazioni routinariamente raccolte nella pratica clinica per fini non scientifici [2, 3].

A partire dagli anni Novanta, in un numero sempre più grande di paesi, soprattutto in Europa, Usa e Asia, è cresciuto l’impiego di banche dati sanitarie per la valutazione post-marketing di pattern prescrittivo, sicurezza ed effectiveness (comparative effectiness research) dei farmaci utilizzati nella reale pratica clinica [4-6]. Anche l’Italia è ricca di dati sanitari in formato elettronico: ogni azienda sanitaria locale e Regione produce flussi amministrativi a fini di rimborsabilità delle prestazioni sanitarie erogate; a ciò vanno aggiunti gli archivi elettronici di medici di medicina generale e pediatri di libera scelta, frequentemente organizzati in reti di ricerca, i registri di patologia e quelli di monitoraggio dei farmaci di nuova commercializzazione richiesti dall’Agenzia italiana del farmaco, sebbene sottoutilizzati dal punto di vista scientifico. Il record linkage di differenti banche dati sanitarie, nel rispetto delle normative della privacy che prevedono procedure di anonimizzazione dei dati dei pazienti, rendono possibile integrare notevoli quantità di dati.

sorveglianza-post-marketing

MMG: medico di medicina generale PLS: pediatra di libera scelta DPC: distribuzione per conto

 

Numerose iniziative sono state recentemente concluse o sono tuttora in corso in diverse parti del mondo in cui sono stati creati multi-database network che danno accesso a fonti dati di dimensioni mai prima raggiunte per la sorveglianza postmarketing dei farmaci. In particolare, vi sono due esperienze internazionali che meritano un approfondimento: il sistema statunitense di sorveglianza postmarketing Sentinel [7] e il progetto europeo Eu-Adr [8].

Generato nel 2008 su mandato della Food and drug administration per il monitoraggio prospettico della sicurezza dei farmaci in commercio, il sistema di sorveglianza Sentinel si basa sull’impiego di record elettronici di circa 100 milioni di cittadini statunitensi. I dati, in forma anonima, derivano da differenti banche dati di assicurazioni sanitarie che sono state convertite localmente a un formato dati standardizzato e condiviso (common data model) così da permettere di lanciare un unico script generato centralmente per la loro analisi senza alcun trasferimento di dati sensibili.

Il progetto Eu-Adr, per l’individuazione di reazioni avverse da farmaci, è stato finanziato dalla Commissione europea nel 2008 con l’obiettivo di identificare precocemente e supportare dal punto di visto biologico possibili segnali di farmacovigilanza tramite data mining applicato a un network di otto banche dati amministrative e di medicina generale da quattro paesi europei – Danimarca, Italia, Olanda e Regno Unito – con una popolazione di riferimento complessiva di quasi 30 milioni di persone, e altre banche dati biomediche. I dati delle singole banche dati venivano prima elaborati localmente tramite un software chiamato Jerboa e poi condivisi, in un formato omogeneo, aggregato e anonimizzato, per ulteriori elaborazioni a livello centrale. L’armonizzazione dell’estrazione iniziale dei dati è stata particolarmente complessa in quanto le banche dati differivano tra loro per sistema di codifica di patologia e farmaci, sistema sanitario sottostante, tipologia di dati raccolti e linguaggio utilizzato [9].

Gli algoritmi – e non i data set – dimostreranno di avere la funzione di trasformare.
Ziad Obermeyer, Ezekiel J. Emanuel.

Tali iniziative hanno dimostrato che se tali multi-database network fossero stati disponibili in passato avrebbero potuto contribuire ad accelerare il processo di valutazione di segnali d’allarme di farmacovigilanza, favorendo una più rapida sospensione dal mercato di farmaci dimostratisi pericolosi come nel caso Vioxx. Altra importante evidenza generata da tali progetti è che il sistema tradizionale di farmacovigilanza basato su segnalazione di sospetta reazione avversa da farmaco non potrà mai essere sostituito per l’identificazione di segnali di sicurezza, bensì soltanto supportato da tali network, soprattutto relativamente a eventi avversi multifattoriali che non sono comunemente segnalati (ad esempio, infarto del miocardio).

Altri network internazionali sono stati creati negli ultimi anni per favorire studi postmarketing su farmaci e vaccini tra cui Aritmo, Safeguards, Advance, Sos, Protect ed EUROmediCat in Europa, Cnodes in Canada, Aspen in Asia e Australia, a dimostrazione di quanto frequente sia la tendenza a livello globale a creare infrastrutture di big data per il monitoraggio post-marketing dei farmaci [10].

Un ultimo cenno va fatto sull’impiego dei social media come possibile fonte dati per farmaco- e vaccino-vigilanza [11]. Sulla base di numerosi studi pubblicati negli ultimi anni, analizzare enormi quantità di dati sia di carattere generale sia di ambito sanitario estrapolabili dai social media sembra essere un approccio promettente per la valutazione post-marketing di farmacovigilanza, sebbene accessibilità e accuratezza di tali dati richiedano ulteriori verifiche.

In generale, la disponibilità di enormi quantità di dati sanitari da fonti differenti rappresenta un’importante opportunità nel campo della farmacovigilanza, ma bisogna valutare rigorosamente la qualità dei dati da analizzare, così come i limiti inerenti agli studi osservazionali, indipendentemente da quantità e qualità dei dati.

Per concludere, citando un editoriale recente del New England Journal Medicine a firma di Ezekiel J. Emanuel e Ziad Obermeyer: “I big data trasformeranno la medicina. I dati in quanto tali però sono inutili. Affinché possano essere utili, bisogna analizzarli e interpretarli correttamente e devono portare a delle azioni” [12].

Bibliografia

[1] Martin-Sanchez F, Verspoor K. Big data in medicine is driving big changes. Yearb Med Inform 2014;9:14-20.
[2] Ross MK, Wei W, Ohno-Machado L. “Big data” and the Electronic Health Record. Yearb Med Inform 2014;9:97-104.
[3] Index for Excerpts from the American Recovery and Reinvestment Act of 2009. Health Information Technology (HITECH) Act 2009, pp. 112-64.
[4] Hripcsak G, Albers DJ. Next-generation phenotyping of electronic health records. J Am Med Inform Assoc 2013; 20:117-21.
[5] Wagholikar KB, Sundararajan V, Deshpande AW. Modeling paradigms for medical diagnostic decision support: a survey and future directions. J Med Syst 2012;36:3029-49.
[6] Sullivan P, Goldmann D. The promise of comparative effectiveness research. Jama 2011;305:400-1.
[7] Platt R, Wilson M, Chan KA, et al. The new Sentinel network: improving the evidence of medical-product safety. N Engl J Med 2009; 361:645-7.
[8] Coloma PM, Schuemie MJ, Trifirò G, et al. Combining electronic healthcare databases in Europe to allow for large-scale drug safety monitoring: the EU-ADR Project. Pharmacoepidemiol Drug Saf 2011;20:1-11.
[9] Avillach P, Coloma PM, Gini R, et al.; EU-ADR consortium. Harmonization process for the identification of medical events in eight European healthcare databases: the experience from the EU-ADR project. J Am Med Inform Assoc 2013; 20:184-92.
[10] Trifirò G, Coloma PM, Rijnbeek PR, et al. Combining multiple healthcare databases for postmarketing drug and vaccine safety surveillance: why and how? J Intern Med 2014;275:551-61.
[11] Sarker A, Ginn R, Nikfarjam A, et al. Utilizing social media data for pharmacovigilance: A review. J Biomed Inform 2015;54:202-12.
[12] Obermeyer Z, Emanuel EJ. Predicting the Future – Big data, Machine Learning, and Clinical Medicine. N Engl J Med 2016;375:1216-9.

novembre 2016


Interrogare i flussi amministrativi

A supporto delle procedure per la rimborsabilità dei nuovi farmaci

Nello Martini, Drugs & Health srl

I big data rappresentano un tema di grande interesse e al centro dell’attenzione scientifica, regolatoria e industriale, ma presentano numerose problematicità relative al loro significato, alle metodologie di analisi e di elaborazione dei dati e − soprattutto − rispetto al loro ruolo, con riferimento alla tutela della privacy, all’eventuale supporto alla digital epidemiology, alla appropriatezza prescrittiva, alle sperimentazioni cliniche, alla farmacovigilanza, alle decisioni regolatorie e alla verifica degli outcome nella pratica clinica reale. Questi temi sono ampiamente presenti e discussi in questo numero di Forward. Da parte mia, vorrei esaminare il possibile ruolo e l’eventuale utilità dei big data a supporto delle procedure di rimborsabilità dei nuovi farmaci.

In Italia abbiamo differenti esempi di progetti basati sull’utilizzo dei big data in ambito farmaceutico e assistenziale che si contraddistinguono tra di loro nella struttura dei data base, negli ambiti di applicazione, negli indicatori assunti e nelle finalità stesse. Infatti, come si evidenzia nella tabella 1, nessuno di essi è mutualmente inclusivo o mutualmente esclusivo di tutti gli indicatori e di tutte le attività. Questi progetti risultano complementari e integrativi per il governo delle performance, della appropriatezza, della aderenza al trattamento, delle popolazioni target, dell’impatto di nuovi farmaci, delle reti cliniche integrate nel riassetto delle cure primarie e dei costi assistenziali (burden of disease) delle patologie.

Tabella 1. Esempi di big data in Italia con relati ambiti di applicazione e indicatori di attività.

 

Un grande osservatorio per le procedure del regolatorio

Il BigData Ar-Co nasce dall’integrazione dell’Osservatorio Arno con Core (Collaborative outcome research), partner di Cineca – Centro di calcolo del consorzio interuniversitario. La struttura di BigData Ar-Co è costituita dai dati di circa 20,5 milioni di assistiti, pari a oltre il 34% dell’intera popolazione italiana, dati che vengono resi in formato anonimo sulla base di specifiche convenzioni con le Regioni e con le Asl che ne rimangono titolari secondo la normativa della privacy. La dimensione di BigData Ar-Co fa riferimento a oltre 150 milioni di prescrizioni farmaceutiche per anno e a tutte le schede di dimissione ospedaliera e prestazioni specialistiche, derivate dai flussi amministrativi degli assistiti a livello regionale e di 53 Asl, dalle quali si raccolgono informazioni dei singoli pazienti relativi alla farmaceutica e ai ricoveri ospedalieri.

Per cogliere l’utilità e i limiti di tale osservatorio, a supporto delle procedure di rimborsabilità di nuovi farmaci – e quindi a supporto delle attività della Commissione consultiva tecnico-scientifica e del Comitato prezzi e rimborsi dell’Agenzia italiana del farmaco (Aifa) – è necessario cogliere alcuni elementi essenziali, attuali e anche futuri delle procedure di autorizzazione e di rimborsabilità. L’elemento chiave del nuovo modello adottato dalle aziende farmaceutiche per il market access dei nuovi farmaci (biotecnologici e prodotti a basso peso molecolare – small molecule) è basato nella stragrande maggioranza dei casi nel trattamento di sottopopolazioni (small population) per le quali viene richiesta l’autorizzazione all’immissione in commercio (procedura centralizzata Ema – Agenzia europea dei medicinali) e la rimborsabilità (procedura Aifa di prezzo e rimborso).

L’estensione del mercato (fatturato delle aziende e spesa a carico del sistema sanitario nazionale) avviene attraverso la procedura di estensione delle indicazioni (a sostanziale varianza di prezzo) per cui si arriva al trattamento di popolazioni molto ampie (adaptive pathway). L’esempio più tipico è dato in oncologia, dalle sottopopolazioni a bersaglio molecolare (target therapy) con differenti biomarker e, più recentemente, dai trattamenti immunologici per pazienti con patologia tumorale ed espressione della mutazione pd-1 e pdl-1. Ma non mancano gli esempi anche in altre malattie, come l’asma e i nuovi trattamenti con i farmaci biologici anticorpi monoclonali (mAb) nelle sottopopolazioni con asma grave, refrattaria ed eosinofila, i nuovi trattamenti biotecnologici per la sclerosi multipla primariamente progressiva o l’impiego degli inibitori del pcsk9 nei pazienti ad alto rischio cardiovascolare che non rispondono alla terapia con statine.

In tale contesto uno degli elementi più critici ai fini della rimborsabilità per l’Aifa è stabilire – in maniera affidabile e nel mondo reale – la prevalenza delle sottopopolazioni target che solitamente viene desunta da studi puramente teorici di epidemiologia inferenziale. Ma senza una metodologia affidabile di calcolo, la definizione del prezzo e della rimborsabilità rimane priva del suo denominatore essenziale.

Definizione della popolazione target

Per verificare l’utilità dei big data nel definire l’epidemiologia delle sottopopolazioni target, viene portato come esempio uno studio di prevalenza dei pazienti candidabili al trattamento con la nuova molecola pcsk9 che è stato condotto a partire dai flussi amministrativi di BigData Ar-Co.

  • I pazienti candidabili al trattamento con pcsk9 sulla base di quattro criteri di estrazione sono:
  • pazienti con evento cardiovascolare nell’anno precedente sulla base delle schede di dimissione ospedaliera (ricovero per infarto, ictus, sindrome coronarica acuta, trombosi venosa profonda),
  • pazienti con evento pregresso cardiovascolare e in trattamento con statine nell’anno successivo (solo il 63,3% dei pazienti risulta in trattamento con statine),
  • pazienti in trattamento con statine ad alto dosaggio (solo il 42% dei pazienti risulta in trattamento con statine ad alto dosaggio),
  • pazienti con pregresso evento cardiovascolare, in trattamento con statine ad alto dosaggio e non a target – colesterolo Lld > a 100 mg/dl ± 30% (far from goal): tale coorte rappresenta solo il 40% dell’intera popolazione con un rischio di malattia cardiovascolare molto alto.

Secondo questa metodologia è possibile individuare dall’archivio di BigData Ar-Co, il numero di pazienti in Italia che presentano le condizioni di candidabilità al trattamento con pcsk9: si tratta di una popolazione di 47.424 pazienti con prevalenza epidemiologica pari a 0,047 x 1000 abitanti.

Costi assistenziali integrati delle patologie

Un’altra criticità nell’ambito del processo di rimborsabilità è costituita dalla valutazione del burden of disease e dei costi assistenziali integrati delle patologie, in modo da stimare l’impatto dei nuovi farmaci (budget impact) nell’ambito delle patologie per le quali sono indicati. Oggi il budget impact si calcola sulla base di modelli teorici di popolazione (Markov) e inferenziali la cui matrice viene definita prevalentemente dalle industrie farmaceutiche nell’ambito del global value dossier e dei paesi di riferimento, in particolare negli Stati Uniti. In questo modo si producono stime che, anche se aggiustate su parametri italiani (per esempio, i diagnosis-related group), non sono facilmente trasferibili alla pratica clinica reale. Mentre il budget impact dei nuovi farmaci, stimato sui dati reali dell’intero processo assistenziale e non solo della farmaceutica, può e deve costituire un reale budget impact 2.0 nel real world.

L’analisi dei costi assistenziali integrati di nove patologie (due acute e sette croniche), esaminate nell’ambito del BigData Ar-Co, evidenzia che il costo prevalente è costituito dai ricoveri ospedalieri, seguiti dalla spesa farmaceutica e dalla spesa per la specialistica (figura 1). Senza i dati del burden of disease e dei costi assistenziali integrati si finisce per valutare l’impatto dei nuovi farmaci su una singola variabile (spesa farmaceutica) e non sull’intero processo assistenziale. Solo in questo modo è possibile valutare e documentare nel tempo i cosiddetti costi evitabili attraverso il monitoraggio che verifichi negli anni gli effetti compensativi “reali” derivanti dai nuovi farmaci, per evitare di mettere a bilancio risparmi presunti e virtuali.

costi-assistenziali-integrat

Figura 1. Costi assistenziali integrati (ricoveri, farmaceutica e specialistica).

 

Conclusioni

 La conclusione di questo articolo riporta ad una valutazione di carattere strutturale e di sistema che riguarda l’esigenza di “terzietà” nella elaborazione e nell’impiego dei dati di big data e più in generale delle procedure di valutazione dell’Health technology assessment (Hta). Nei paesi in cui le procedure di Hta sono da tempo consolidate e vengono assunte come base per decidere la eventuale rimborsabilità, le valutazioni economiche (incremental cost-effectiveness ratio e costo finale per anni di vita pesati per la qualità) vengono effettuate da strutture terze rispetto all’agenzia regolatoria. Ad esempio, nel Regno Unito tali valutazioni non sono di competenza della Medicine and healthcare regulatory agency ma piuttosto del National institute for health and care excellence o di istituzioni accreditate e altamente qualificate del National health service.

In Italia tutte le funzioni (prezzo, rimborsabilità, Hta e farmacovigilanza) sono invece concentrate in unico organismo, l’Aifa, per cui si viene a creare un potenziale conflitto di interesse. È auspicabile che questo aspetto rilevante e strutturale venga risolto nell’ambito del riordino dell’Aifa più volte annunciato ma non ancora implementato.

novembre 2016

0 Comments

Leave A Comment

Lascia un commento

Iscriviti alla newsletter di Forward

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

Pin It on Pinterest

Share This