• Background Image

    Le sfide della ricerca

15 giugno 2018

Le sfide della ricerca

La sovranità dell’incertezzaPaolo Bruzzi
Le frontiere dell’epidemiologia in continua evoluzioneMatteo Renzi
La rarità nei valori estremiValeria Belleudi
Far emergere l’invisibile nel mare magnum dei datiPaola Facchin

La sovranità dell’incertezza

Dalla ricerca clinica sui tumori rari alle linee guida e alla decisione clinica

Paolo Bruzzi, direttore Epidemiologia clinica, Ospedale Policlinico San Martino – Irccs, Genova

Le decisioni terapeutiche nei tumori rari sono complicate dalla difficoltà di condurre studi clinici in grado di fornire quelle solide conoscenze scientifiche che dovrebbero essere alla base della pratica clinica. Infatti, uno degli assiomi dell’evidence-based medicine ortodossa è che l’efficacia dei trattamenti dovrebbe essere sempre valutata in sperimentazioni cliniche di buona qualità metodologica, e in particolare randomizzate e di dimensioni adeguate. Nei tumori rari tutto ciò è molto più difficile, e spesso impossibile per vari motivi, psicologici, etici, statistici, organizzativi ed economici.

Questo è servito a giustificare la disastrosa sciatteria che ha caratterizzato la ricerca clinica nei tumori rari: la difficoltà/impossibilità, in un tumore raro (o in un sottogruppo raro di un tumore frequente), di progettare uno studio randomizzato di adeguate dimensioni si è tradotta in una completa anarchia metodologica, in cui le ipotesi terapeutiche venivano valutate attraverso studi non solo di piccole dimensioni e non randomizzati, ma che non avevano alcun piano statistico, utilizzavano endpoint di attività (la risposta obiettiva) e non prevedevano neppure un confronto con pazienti simili (controlli storici) trattati in precedenza. L’etichetta “fase 2” serviva a nascondere queste gravissime inadeguatezze metodologiche: in realtà lo studio di fase 2 dovrebbe servire solo a decidere se procedere con un successivo studio di efficacia (quello di fase 3), quasi mai previsto in queste situazioni [1]. La debolezza delle evidenze sperimentali si rifletteva in raccomandazioni cliniche e generiche e comportamenti clinici eterogenei e contraddittori.

La difficoltà/impossibilità di progettare uno studio randomizzato di adeguate dimensioni si è tradotta in una completa anarchia metodologica.

Negli ultimi due decenni, grazie a grandi sforzi collaborativi internazionali, è stato possibile in certi casi superare queste difficoltà avviando studi di dimensioni adeguate, che però hanno comportato spesso un prezzo in termini di specificità dei criteri di selezione. Per esempio, l’interpretazione degli studi sui sarcomi dei tessuti molli deve fare i conti con le grandi differenze tra vari tipi di sarcoma, in termini di biologia e di suscettibilità alle terapie. In molti casi, invece, la rarità dello specifico tumore è tale da precludere comunque l’arruolamento di una casistica di dimensioni rassicuranti sul piano della stabilità statistica.

La questione dei requisiti: dimensioni e randomizzazione
Per capire meglio le coordinate della problematica, e individuare possibili soluzioni, è utile riconsiderare i principali requisiti dello studio clinico ortodosso: la randomizzazione e le dimensioni adeguate. Due aspetti questi del tutto indipendenti: infatti, condurre uno studio non controllato invece che randomizzato non comporta grandi vantaggi sul piano statistico [2]. Il guadagno ottenuto con la randomizzazione in termini di prevenzione del bias è invece drammatico, per cui, anche quando le casistiche disponibili sono esigue, sarebbe preferibile lo studio controllato randomizzato.

Il vero motivo della difficoltà a randomizzare negli studi sui tumori rari sta nel fatto che spesso non esistono terapie “standard” di efficacia dimostrata o perlomeno plausibile − il che costringerebbe a studi con un braccio di controllo non trattato, sempre difficili da proporre ai pazienti e ai comitati etici, e in certi casi, quando l’efficacia della terapia sperimentale è invece plausibile, francamente poco etici. Questa difficoltà di tipo etico non è specifica dei tumori rari, e anzi si sta riproponendo con molte moderne terapie: di solito, l’efficacia di un trattamento che ha uno specifico bersaglio molecolare viene dimostrata in un trial convenzionale condotto in pazienti con il tumore in cui l’alterazione molecolare “bersaglio” è più frequente, selezionati per la presenza dell’alterazione. Quasi sempre però l’alterazione si ritrova, molto più raramente, anche in altre neoplasie, ponendo nelle valutazioni di efficacia problemi statistici identici a quelli dei tumori rari, e ancor più marcati problemi etici per la randomizzazione, a causa della potenziale efficacia della terapia “mirata”.

Esiste quindi nei tumori rari (e nelle varianti rare di tumori frequenti) una tensione etica tra l’esigenza della comunità di utilizzare solo terapie di provata efficacia e il desiderio del medico e del paziente di “provare” terapie la cui efficacia è plausibile anche se non dimostrata con certezza. Il problema della valutazione dell’efficacia dei trattamenti attraverso sperimentazioni cliniche non controllate è stato finora colpevolmente scotomizzato dalla comunità dell’evidence-based medicine, che arriva a chiamare queste sperimentazioni “observational studies”. Quando invece dovrebbe essere affrontato con urgenza per evitare che si ripetano gli sbandamenti mostrati in alcune recenti occasioni sia dalle più prestigiose riviste scientifiche che dalle agenzie regolatorie (Fda ed Ema).

L’incertezza statistica legata alle piccole dimensioni degli studi aggiunge un ulteriore fattore di tensione perché diventa più difficile, o impossibile, dimostrare la presenza di un effetto positivo, se non miracoloso. Ma perché un paziente affetto da un tumore raro non dovrebbe beneficiare di un trattamento con un’efficacia intermedia solo perché il risultato non è “statisticamente significativo”?

Perché un paziente affetto da un tumore raro non dovrebbe beneficiare di un trattamento con un’efficacia intermedia perché il risultato non è “statisticamente significativo”? La formale adozione di logiche bayesiane permetterebbe processi decisionali più trasparenti

La soluzione nella plausibilità dell’ipotesi
I piccoli numeri rappresentano una barriera insormontabile se si resta in una logica statistica frequentista, nella quale i risultati di un esperimento sono analizzati al buio, fingendo che non esistano altre conoscenze che ne possono condizionare l’interpretazione: è una logica paralizzante, che non a caso non è mai utilizzata dall’uomo nei suoi processi decisionali, che invece si basano su un’integrazione continua di tutte le informazioni disponibili, pesate in base alla loro affidabilità, pertinenza e rilevanza.

La formale adozione di logiche bayesiane permetterebbe processi decisionali più trasparenti.

La statistica bayesiana, che formalizza questa diversa impostazione, rappresenta l’unica possibile soluzione alle problematiche poste dai tumori rari, ma viene ancora vista con scetticismo/sospetto dalla comunità biomedica, per la dipendenza delle conclusioni da una “distribuzione di probabilità a priori”: essa rappresenta di fatto la plausibilità dell’ipotesi terapeutica in studio, ed è quindi arbitraria.

Questo scetticismo non è giustificato, perché la formale adozione di logiche bayesiane permetterebbe ai processi decisionali nei tumori rari, che già oggi le utilizzano ampiamente sia a livello di linee guida che di scelte cliniche, di diventare più trasparenti per la necessità di esplicitare le assunzioni (ipotesi a priori) su cui si basano.

maggio 2016

Note

[1] Tipica di questo atteggiamento era l’affermazione, diffusa ma abbastanza demenziale, “non ci abbiamo i numeri per lo studio di fase 3 (considerato sinonimo di studio randomizzato) per cui faremo uno studio di fase 2 (considerato sinonimo di studio non controllato)”, in cui si confondevano metodologia e scopo di uno studio.
[2] La precisione degli stimatori di outcome/effetto usati negli studi clinici è correlata con la radice quadrata del numero di eventi o di soggetti, per cui dividere la casistica in due gruppi invece di confrontare i risultati osservati in un unico gruppo trattato con valori teorici comporta perdite modeste.


Le frontiere dell’epidemiologia in continua evoluzione

Un excursus storico-concettuale sui limiti metodologici e l’incertezza dei risultati

Matteo Renzi, Dipartimento di epidemiologia, Servizio sanitario regionale del Lazio, Asl Roma 1

La “rarità” è un termine con il quale l’epidemiologia ha molto a che fare: si occupa spesso di patologie rare che colpiscono solo una piccolissima parte della popolazione generale, dove piccolo è il numero dei casi osservati di una determinata malattia e delle frazioni di esposti, come quando, per esempio, si valuta l’effetto di elevati livelli di un determinato inquinante. Ma come si approccia l’epidemiologia alla rarità? La risposta a questa domanda richiede un dovuto riferimento storico.

Negli anni cinquanta, l’epidemiologia si trovava in una fase ascendente e conquistava importanti traguardi, come la creazione dello storico Framingham heart study sulle patologie cardiovascolari, tuttora in attività. Una disciplina, dunque, in continua evoluzione che vedeva negli studi di coorte (un insieme di soggetti che condividono una caratteristica) la propria arma principale. Essenzialmente, una coorte veniva seguita nel tempo per poter “misurare” l’effetto di un’esposizione su vari esiti sanitari. Tuttavia questo procedimento richiedeva tempi lunghi e un numero abbastanza consistente di soggetti proporzionati all’esito da valutare. E allora, come approcciarsi a una malattia rara? La risposta a questa domanda è stata ottenuta rigirando il problema e cambiando punto di vista.

Invece di seguire un numero di soggetti nel tempo (con un approccio prospettico) e aspettare di poter valutare un numero sufficiente di casi, si è partiti dai casi stessi guardando indietro nel tempo. In questo modo, si sarebbe potuto aggirare il problema del tempo e della dimensione del campione. Così sono nati gli studi caso-controllo che valutano l’associazione tra un’esposizione ambientale e un esito raro confrontando i casi con dei controlli, ovvero dei soggetti paragonabili ai “casi” per diverse caratteristiche fisiche e/o sociali. Doveroso in questo contesto citare lo studio di Richard Doll e Bradford Hill, uscito sulle pagine del British Medical Journal nel 1950, in cui i due ricercatori inglesi hanno dimostrato un’associazione tra il fumo di sigaretta e il carcinoma del polmone tra i medici inglesi [1]. Questa rimane tutt’ora una delle conquiste più importanti dell’epidemiologia moderna.

Il difficile caso dei cluster di leucemie infantili
In epidemiologia ambientale il tema della rarità trova riscontro in numerosi ambiti. Per esempio, quando viene denunciato un cluster di leucemie infantili in una scuola, gli ingredienti ci sono tutti: la rarità della malattia, la rarità del numero di casi osservati, la rarità di alcuni fattori di rischio chiamati in causa. Dalla prima segnalazione di un possibile cluster di leucemia infantile agli inizi degli anni sessanta, molti studi hanno messo in evidenza la tendenza al “clustering” non solo spaziale ma anche temporale di questa patologia. Cluster di casi di leucemia infantile sono stati segnalati intorno a diverse sorgenti di inquinamento ambientale: industrie chimiche, centrali nucleari o antenne di trasmissione radiotelevisiva.

I piccoli numeri non aiutano le indagini epidemiologiche. Ma queste si rendono necessarie per l’importanza della domanda sanitaria e l’elevato allarme nella popolazione.

Alcuni ostacoli, come la rarità della malattia e il piccolo numero di casi in studio indagati negli studi di cluster, oltre all’assenza spesso di esposizioni comuni identificabili come causa della malattia, rendono questi studi inefficaci o dal difficile compimento. Già nel 1989 Kenneth Rothman [2], in un convegno ad Atlanta sul tema dei cluster (definito poi dallo stesso Rothman come il cluster buster conference), affermò la scarsa produttività dello studio dei cluster, sia per spiegare un singolo evento sia per valutare la tendenza di alcune malattie ad aggregarsi nello spazio e nel tempo. Tuttavia, l’importanza della domanda sanitaria e l’elevato allarme nella popolazione rendono queste indagini spesso necessarie.

A queste criticità spesso si aggiunge anche la rarità della frazione esposta a un fattore di rischio ambientale. Per esempio, spesso si valuta il possibile ruolo dei campi elettromagnetici a bassa frequenza comunemente generati sia nell’ambiente esterno (centrali di produzione e stazioni di trasformazione dell’energia elettrica, impianti di illuminazione pubblica, cabine e quadri di distribuzione stradali) che in quello domestico (impianto elettrico, elettrodomestici e altri apparecchi a uso comune, macchine d’ufficio).

Tumori infantili, fattori di rischio e cluster spazio-temporali.
Nello studio dell’eccesso di leucemie infantili identificato in un municipio di Roma è stata condotta un’analisi per valutare il rischio in prossimità di fonti di emissione di campi magnetici ad alta e bassa frequenza presenti nell’area. Le fonti di esposizione identificate sono state otto: una sorgente di campi elettrici e magnetici a frequenza estremamente bassa (ELF) e sette fonti di radiofrequenze (RF). Le fonti di emissione sono state georeferenziate e sono state definite aree di 0,2 e 0,5 km da ciascuna fonte.

Alcuni studi, tra cui Interphone [3] condotto in 13 paesi, Italia inclusa, hanno identificato un’associazione tra un’esposizione ad alti livelli di onde elettromagnetiche e sviluppo di tumori. Ragionando però sulla forza dell’associazione e su quelle che sono le armi a disposizione di un epidemiologo per avvalorare la propria ipotesi di ricerca, la rarità introduce anche in questo caso ulteriori problematiche. Infatti, aver a disposizione un numero molto piccolo di casi aumenta il grado di incertezza statistica e di conseguenza il p-value, cioè il valore di probabilità, che nella letteratura scientifica fornisce garanzie di robustezza: più piccolo è il valore calcolato per una serie di risultati, meno è probabile che i risultati siano dovuti esclusivamente al caso. Al di là dei piccoli numeri, il p-value è uno strumento da usare con cautela che è stato in realtà sovradimensionato. Recentemente, in un editoriale del JAMA, John Ioannidis lo ha definito come “misinterpreted, overtrusted, and misused”, sottolineando come parte della comunità scientifica consigli lo spostamento del threshold per considerare i risultati “statisticamente significativi” da p < 0,05 a p < 0,005 [4].

Quindi, considerata l’importanza dell’ipotesi in studio e viste le problematiche che avvolgono l’utilizzo dei parametri standard per il reporting dei risultati, a volte è preferibile considerare il numero di casi attribuibili all’esposizione, ovvero tutti quei casi, tra quelli che abbiamo osservato, che possono essere imputabili all’essere esposti a un fattore di rischio ambientale. In questo modo si sarebbe in grado di dare una risposta concreta alla domanda di sanità pubblica. Tuttavia, mentre la rarità della malattia non costituisce una criticità in questo esercizio, la rarità dell’esposizione introduce un nuovo problema. Per metterlo a fuoco torniamo all’analisi dei cluster di leucemia ed esposizione ai campi elettromagnetici a bassa frequenza: anche ammettendo la correttezza dei rischi relativi stimati nelle meta-analisi pubblicate [5], la proporzione di casi attribuibili a questo fattore di rischio sarebbe inferiore al 5 per cento [6], perché rarissima è la frazione della popolazione generale esposta ai livelli elevati associati a un aumento di rischio.

Le risposte a un problema non “raro”
La maggior parte dei cluster di leucemia infantile rimane ad oggi senza una causa accertata. Se l’aggregazione spaziale chiama in causa esposizioni ambientali stabilmente presenti nella zona di residenza, l’aggregazione temporale suggerisce un’esposizione a un fattore di rischio transitoriamente presente.

Nel corso degli anni sono state ipotizzate numerose teorie per spiegare la formazione dei cluster di malattia, come quella dell’effetto di virus in aree dove si è verificato un recente mescolamento di popolazioni in precedenza isolate (teoria del population mixing) [7]: l’agente infettivo colpirebbe individui suscettibili, precedentemente non esposti al virus, in seguito per esempio a un rapido ripopolamento di un’area; ciò provocherebbe una risposta aberrante all’infezione in alcuni soggetti e la progressione verso la malattia.

Oppure, secondo l’“ipotesi igienica” (ipotesi di Greaves) una maggiore suscettibilità in alcuni individui potrebbe essere dovuta all’assenza di un’attivazione del sistema immunitario nei primissimi anni di vita, causata probabilmente dalla minore frequenza all’asilo nido, dalla minore durata dell’allattamento al seno o da un agente infettivo presente nell’ambiente [8].

Nell’affrontare la tematica dei cluster di tumori infantili, risulta doveroso il riferimento alla monografia “Tumori infantili, fattori di rischio e modelli di indagine per la valutazione di cluster spazio-temporali”, pubblicata nel 2016 sulla rivista Epidemiologia e Prevenzione, che ha esplorato dettagliatamente questa relazione, a cui si rimanda per ulteriori informazioni [9].

In qualsiasi caso, le frontiere della ricerca epidemiologica sono in continua evoluzione, lo sviluppo delle analisi delle omiche (exposoma, metaboloma, ecc.) forse ci aiuterà a identificare nuovi fattori di rischio ambientali oppure rafforzare le ipotesi relative a quelli già conosciuti, poiché nonostante colpiscano una bassa quota di popolazione, rimangono un problema non “raro” di salute pubblica.

maggio 2018

Bibliografia

[1] Doll R, Hill AB. Smoking and carcinoma of the lung. Br Med J 1950;2:739.
[2] Rothman KJ. A sobering start for the cluster busters’ conference. Am J Epidemiol 1990;132 Suppl:S6-13.
[3] Cardis E, Richardson L, Deltour I, et al. The Interphone study: design, epidemiological methods, and description of the study population. Eur J Epidemiol 2007;22:647-64.
[4] Ioannidis JPA. The proposal to lower p value thresholds to .005. JAMA 2018;319:1429-30.
[5] Zhang Y, Lai J, Ruan G, et al. Meta-analysis of extremely low frequency electromagnetic fields and cancer risk: a pooled analysis of epidemiologic studies. Environment International 2016; 88:36-43.
[6] Teepen JC, van Dijck JA. Impact of high electromagnetic field levels on childhood leukemia incidence. Int J Cancer 2012;131:769-78.
[7] Law GR, Parslow RC, Roman E; United Kingdom Childhood cancer study investigators. Childhood cancer and population mixing. Am J Epidemiol 2003;158:328-36.
[8] Greaves M, Buffl er PA. Infections in early life and risk of childhood ALL. Br J Cancer 2009;100:863.
[9] Michelozzi P, Schifano P. Tumori infantili, fattori di rischio e modelli di indagine per la valutazione di cluster spazio-temporali. Epidemiol Prev 2016; supplemento settembre-ottobre.


La rarità nei valori estremi

Il problema degli outlier e delle “code” nelle curve di distribuzione

Valeria Belleudi, Dipartimento di epidemiologia, Servizio sanitario regionale del Lazio, Asl Roma 1

La chiave della scoperta è l’allineamento tra un evento interessante e un osservatore interessato. George E.P. Box

La statistica moderna ha come obiettivo quello di sintetizzare i dati e identificare dei parametri che possano stabilire le caratteristiche e i comportamenti delle misure rilevate. Disporre di un elevato numero di osservazioni riduce la loro variabilità e migliora la precisione dei parametri stimati. In questo contesto, risulta chiaro come per trattare il tema della rarità non si possa ricorrere agli approcci statistici standard: usare dei valori di sintesi in presenza di piccoli numeri potrebbe non essere adeguato, la rarità prima di essere sintetizzata deve essere indagata ed esplorata. Uno degli elementi chiave da considerare quando si affronta il tema della rarità è la sua relatività: esistono delle singolarità anche all’interno di specifiche popolazioni. È questo il caso degli outlier, osservazioni anomale che presentano dei comportamenti estremamente diversi rispetto al contesto in cui sono state rilevate. Ne sono un esempio i pazienti oncologici che mostrano una regressione spontanea dalla malattia [1].

Sebbene il problema dell’identificazione degli outlier sia stato ampiamente studiato nei campi del data mining e della statistica, come affrontarlo rimane un tema dibattuto. Per molto tempo si è ipotizzato che gli outlier fossero dei segnali di disturbo, dei rumori, dovuti esclusivamente a errori nei dati o a eventi casuali, e quindi, una volta individuati, andassero eliminati o sostituiti.

Gli outlier potranno servire per indagare le eccezionalità, trasformando in melodia quello che fino ad oggi è stato considerato rumore.

Un’area di ricerca recente pone nuovi interrogativi sulla provenienza di questi valori, ipotizzando una distribuzione non omogenea dei dati e l’esistenza di cluster di outlier, ovvero di piccoli gruppi di valori anomali che sono simili tra loro, ma marcatamente diversi da tutta la popolazione. Per poterli descrivere e analizzare si possono utilizzare dei metodi specifici [2]. È questo il caso della teoria dei valori estremi, branca della statistica che si occupa delle deviazioni estreme, le “code”, della distribuzione di probabilità. L’analisi dei valori estremi è ampiamente utilizzata nelle diverse aree scientifiche per la predizione di eventi e la valutazione di rischi che hanno bassa probabilità e alto impatto, come terremoti, uragani o crolli del mercato finanziario. Nella scienza medica l’utilizzo di tali tecniche, seppur scarso, è in via di sviluppo e ha messo in luce strumenti importanti al fine della programmazione sanitaria, quali la possibilità di predire la mortalità per influenza o di individuare il rischio di longevità [3,4]. In ambito farmacologico è stato mostrato l’uso della teoria dei valori estremi per rilevare problemi di sicurezza rari già nella fase di sperimentazione clinica, senza dover attendere l’insorgenza di eventi avversi gravi nei dati postmarketing [5].

Gli outlier sono, quindi, una possibile fonte di informazione e nei prossimi anni approcci statistici innovativi potranno essere sviluppati e implementati per indagare le eccezionalità, trasformando in melodia quello che fino ad oggi è stato considerato rumore.

maggio 2018

Bibliografia

[1] Frenkel M, Gross S, Popper Giveon A, et al. Living outliers: experiences, insights and narratives of exceptional survivors of incurable cancer. Future Oncol 2015;11:1741-9.
[2] Aggarwal, CC. Outlier analysis. Cham: Springer, 2013.
[3] Thomas M, Lemaitre M, Wilson ML, et al. Applications of extreme value theory in public health. PLoS One 2016;11:e0159312.
[4] Bravo JM, Corte-Real P. Modeling longevity risk using extreme value theory: an empirical investigation using Portuguese and Spanish population data. March 2012.
[5] Southworth H. Predicting potential liver toxicity from phase 2 data: a case study with ximelagatran. Stat Med 2014;33:2914-23.


Far emergere l’invisibile nel mare magnum dei dati

Dai registri e flussi informativi correnti a un sistema integrato per le malattie rare

Paola Facchin, responsabile Coordinamento Malattie rare del Veneto, Dipartimento Salute donna e bambino, Università di Padova

Con la collaborazione di Monica Mazzucato, Silvia Manea e Sara Barbieri, Registro Malattie rare del Veneto, Coordinamento Malattie rare del Veneto

In tema di malattie rare, la rarità si associa alla loro frammentazione in forme che di rado si raccolgono in gruppi riconosciuti e progressivamente aggregati. Da ciò deriva l’invisibilità, ovvero l’assenza di molte malattie rare nella classificazione internazionale delle malattie (Icd, International statistical classification of diseases, injuries and causes of death) e quindi l’impossibilità di essere codificate nei flussi informativi correnti. Rarità e invisibilità determinano la percezione che, in sanità pubblica, quello delle malattie rare sia un problema di nicchia da affrontare solo per le difficoltà aggiuntive che ne derivano per i singoli malati.

Il problema è che diverse centinaia di registri si sovrappongono, con scarsissima comunicazione tra loro.

I registri tra punti di forza e di debolezza
L’invisibilità ostacola l’acquisizione di nuove conoscenze sia in ambito clinico (per esempio, storie naturali, variabilità e rapporti genotipo fenotipo) che di programmazione sanitaria (per esempio, la prevalenza e l’impatto delle malattie rare). Per ovviare a ciò è possibile correggere i contenuti e la logica dei sistemi di classificazione utilizzati nei flussi informativi correnti in sanità oppure mettere a punto rilevazioni ad hoc. Quest’ultima opzione ha portato alla proliferazione di registri dedicati. I primi a sorgere sono stati i registri di singole patologie, nati in grandi centri con ampia casistica ed estesi a reti internazionali di centri con l’obiettivo di produrre l’informazione clinica mancante e stimare inoltre le occorrenze delle malattie rare. Tuttavia l’uso improprio di questi dati, da cui derivano quasi tutte le prevalenze delle malattie, è causa in parte della variabilità delle stime in letteratura. I registri di patologia soffrono di importanti limitazioni dovute alla distorsione che la fonte, cioè il centro, determina, e alla mancanza di una chiara popolazione di riferimento. I casi raccolti e seguiti dai centri non sono uguali agli altri per esordio, presentazione clinica, evoluzione, persone coinvolte, ecc. Quindi anche il quadro clini co desunto non è trasferibile all’universo dei nuovi casi. Inoltre questi registri descrivono solo una specifica patologia e, non essendo interoperabili, non permettono una visione sistematica delle malattie rare e delle sovrapposizioni tra malattie rare diverse.

La mancanza di un denominatore di riferimento pone infine difficoltà nel calcolo delle occorrenze. Oltre seimila malattie rare dovrebbero generare altrettanti registri, creando un sistema ingovernabile e difficilmente sostenibile. La messa in commercio di farmaci orfani, con prove di efficacia e sicurezza limitate, ha richiesto lo sviluppo di monitoraggi postmarketing o registri per farmaco. La frammentazione dei monitoraggi è così aggravata dalla comparsa di registri per patologia e per farmaco. Si sono poi sviluppati anche i registri dei pazienti, ovvero sistemi di monitoraggio indipendenti generati e gestiti dagli stessi pazienti che li alimentano. Il problema è che, allo stato attuale, diverse centinaia di registri si sovrappongono, con scarsissima comunicazione tra loro. Un paziente può essere incluso in uno o più registri, pesando così in modo diverso da un altro nel generare nuova conoscenza.

Alla ricerca dell’interoperabilità
L’Unione europea ha cercato di rendere più sostenibile questo sistema di registri, lanciando più progetti tendenti a realizzare la loro interoperabilità tecnologica, semantica, di obiettivi, di procedure, ecc. Tali progetti hanno ottenuto risultati solo parziali e si stanno ora concentrando nell’identificare un pacchetto minimo di dati comuni ai diversi registri, rinunciando a parte della ricchezza informativa prodotta. Le difficoltà descritte sono aggravate dalla creazione di banche dati per loci genici e mutazioni, con la logica del genotipo e non quella del fenotipo. Le due logiche appaiono divergenti e pongono dubbi perfino su cosa si debba considerare malattia.

In diversi paesi, tra cui Italia, Spagna, Francia, oltre ai registri di patologia, farmaci e pazienti si sono sviluppati i registri di popolazione che coprono ambiti territoriali diversi fino a milioni di abitanti, generando stime di occorrenza attendibili. Sono essenzialmente di due tipi: quelli con una o più fonti attive che registrano il malato come attività propria ed esclusiva, o quelli in cui la registrazione del malato e di altri dati è all’interno di un sistema informativo creato per gestire le attività di assistenza da cui, in seconda istanza, prende forma il registro di popolazione. I vantaggi di questa seconda impostazione sono evidenti per completezza della raccolta, ricchezza dell’informazione e sostenibilità. Tuttavia, essa richiede un periodo piuttosto prolungato di funzionamento per raggiungere una copertura accettabile e una programmazione che la supporti. Questa soluzione monitora ad oggi oltre 20 milioni di italiani, una copertura realizzata attraverso accordi tra regioni. Da questo registro si generano i dati per definire prevalenza e impatto globale delle malattie rare, anche rispetto ad altri gruppi di patologie.

Per ovviare all’invisibilità delle malattie rare, oltre ai registri, si possono adattare ad esse i sistemi di classificazione usati nei flussi informativi correnti. L’Organizzazione mondiale della sanità sta immettendo numerose malattie rare all’interno del nuovo Icd-11. Tuttavia i limiti di tale attività sono il numero delle malattie rare integrabili e il dover inserire ciascuna di esse, per quanto eterogenea e sistemica, in un solo capitolo ordinato per sistema/organo. Le caratteristiche delle malattie rare sono invece ben rappresentate nella classificazione Orphanet per le malattie rare (ORPHAcode). Per integrare le due classificazioni bisogna armonizzare le loro logiche: gerarchica e unidimensionale per l’Icd (una malattia, un codice e una sede, diverse granularità), gerarchica e multidimensionale per l’ORPHAcode (una malattia, uno stesso codice presente in più rami, diverse granularità). L’Unione europea ha quindi lanciato una azione congiunta che ha già prodotto una linearizzazione tra i due sistemi. Per verificarne la fattibilità concreta sono in corso sperimentazioni in più paesi e setting assistenziali.

Il futuro sta in un sistema integrato.

In conclusione, il futuro sta in un sistema integrato che si basi su registri di popolazione che monitorino aree definite, capaci sia di produrre dati epidemiologici attendibili sia di raccogliere dati di dettaglio clinici e genetici, così come su flussi informativi correnti con classificazioni integrate, in grado di stimare l’impatto e l’utilizzo delle risorse per le persone con malattie rare.

maggio 2018

0 Comments

Leave A Comment

Lascia un commento

Iscriviti alla newsletter di Forward

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

Pin It on Pinterest

Share This