Skip to main content

L’Associazione italiana di epidemiologia ha invitato Forward a chiudere il proprio congresso di primavera 2019: è stata l’occasione per ragionare sulla disseminazione della ricerca scientifica e per definire 10 principali domande che attendono risposta.

DIECI DOMANDE APERTE DEL PROGETTO FORWARD

  1. Le riviste servono solo per pubblicare o anche per aggiornarsi e favorire il dialogo tra ricercatori e operatori sanitari?
  2. Editoria scientifica: è più giusto pagare per scrivere (open access) o pagare per leggere?
  3. Ricerca scientifica: perché non pubblicare protocolli e risultati su banche dati aperte, lasciando alle riviste e ai blog il compito di commentare?
  4. Peer review: è realmente sostenibile economicamente? È troppo esposta a bias e impedisce una pubblicazione tempestiva? È preferibile una post publication peer review aperta?
  5. L’impact factor è ancora un indicatore affidabile? È più indicativo della “utilità” di un contributo uno strumento come Altmetric?
  6. Le riviste con elevato impact factor continueranno a essere le più ambite dai ricercatori?
  7. Come regolare i rapporti tra centri di ricerca e predatory publishers, e come disincentivare la crescita di un’editoria scientifica senza scrupoli?
  8. La figura del bibliotecario documentalista sopravvivrà al cambiamento della comunicazione scientifica e, in generale, dell’assistenza sanitaria?
  9. Le istituzioni hanno interesse a sostenere la formazione dei professionisti sanitari alla valutazione critica dei contenuti medico-scientifici?
  10. La disomogeneità dell’offerta di informazione e aggiornamento tra le regioni italiane può tradursi in disuguaglianze nella qualità della cura?

The purpose of publishing should be to make sense of the world in which we live.
— Richard Horton, editor, The Lancet

C’è poco da fare: nonostante il proverbiale understatement tipicamente britannico, Richard Horton è una persona ambiziosa, altrimenti non avrebbe scritto una frase del genere in un editoriale di qualche anno fa sulla crisi dell’editoria scientifica [1]. Crisi non economica ma di credibilità. Crisi che non è affatto passata, anzi, e pochi sarebbero oggi in grado di dire quale potrà essere il futuro del medical publishing. Forse perché, nonostante i casi di medici super produttivi [2], è una questione che riguarda pochi: nel mondo sono poco meno di 8 milioni le persone che scrivono sulle riviste scientifiche. La cosa strana – o forse neanche tanto – è che le persone che leggono articoli di medicina sono altrettanto numerose. Per qualcuno che legge una rivista senza scrivere ce ne sarà un altro che scriverà – o firmerà un articolo – senza avere l’abitudine di leggere. Un mondo chiuso in sé stesso, poco comprensibile, che suscita interrogativi.

Una prima domanda riguarda la funzione delle riviste scientifiche: sono considerate un contenitore per pubblicare o uno strumento di aggiornamento e quindi qualcosa da leggere? La trasformazione di un periodico da qualcosa da sfogliare da cima a fondo ad un insieme di record bibliografici da aprire e consultare online ha cambiato anche il modo col quale è percepita una rivista. Però se non leggessimo la strada per conoscere il mondo sarebbe ancora più in salita. Tanti anni fa, sugli Annals of Internal Medicine uscì uno studio che dimostrava che troppe volte i medici non sanno di non sapere [3]. Per qualche anno, l’allora direttore del BMJ Richard Smith ne fece un mantra e Margaret McCartney ha reso ancora più attuale la preoccupazione: “quale altra cosa è altrettanto illuminante, fortificante, sebbene provocante, e – diciamocelo – ci fa arrabbiare quanto il leggere?” [4].

Slow, expensive, largely a lottery, wasteful of scientific time, fails to detect most errors, rejects the truly original, and doesn’t guard against fraud authors.
— Richard Smith, former editor, The BMJ

Altra domanda: in futuro le riviste sarebbe meglio fossero ad accesso aperto o riservate agli abbonati? In linea di principio, la risposta sembrerebbe scontata. Del resto, chi non è d’accordo sulla necessità che la conoscenza sia diffusa e universalmente accessibile? Oggi, il modello prevalente non è più quello del periodico diffuso esclusivamente in abbonamento.

Even reduced charges to people from developing economies are impossible for many potential authors.
— Mark Burgman, editor, Conservation Biology

La tendenza è quella di una crescita del numero delle riviste in open access e, soprattutto, del modello ibrido: la stessa rivista pubblica articoli schermati accanto a contributi accessibili perché qualcuno ha pagato perché siano aperti. Nel 2016, il 19 per cento degli articoli era accessibile su internet gratuitamente [5]. A farlo sono le istituzioni degli autori e tanto più sono ricchi gli enti di appartenenza tanto maggiore è la probabilità che il paywall sia aggirato. Una forma di “imperialismo accademico” sostiene Mark Burgman, direttore di Conservation Biology, convinto che questa formula sia penalizzante per i ricercatori dei paesi a basso reddito. Non è il solo problema aperto: molto spesso, a pagare sono le industrie che hanno sponsorizzato gli studi così che i contenuti indipendenti sono meno accessibili di quelli (probabilmente) condizionati da conflitti di interessi. Su internet nessuno ti regala nulla, sottolinea un commento uscito da poco sul New England Journal of Medicine [6].

Fonte: Else H. Nature 2018;561:17-8. Da un’elaborazione dei dati estrapolati dalla banca dati Scopus.

Openness è un concetto che raccoglie tanti consensi e che ha motivato l’avvio di diverse collaborazioni internazionali, da All-Trials [7] allo Yale university open data project (Yoda) [8], finalizzate a rendere disponibili i dati della ricerca. Lo scandalo di un grande peccato di omissione è ormai conosciuto nel mondo scientifico: circa la metà degli studi non è pubblicata. La responsabilità non è solo delle industrie (a Sanofi va il primato tra le aziende, con il 63,2 per cento dei trial non pubblicati) ma anche di università (Yansei university 71,2 per cento), centri di assistenza (Mayo clinic 49,6 per cento) e istituzioni (National cancer institute Usa 30,9 per cento). Per tanti studi tenuti nascosti, ne esistono molti altri ai quali le riviste più conosciute e di maggior prestigio danno straordinaria visibilità. Sappiamo però che l’editoria scientifica internazionale ha bilanci milionari alimentati soprattutto dalle vendite di reprint a industrie. Per questo, la domanda che molti si pongono sembra davvero ingenua: perché non pubblicare protocollo, metodo e risultati di ogni studio su database pubblici? Sarebbe bello, ma è difficile che le riviste accettino di svolgere soltanto il ruolo di spazio di confronto. Pubblicare in modalità aperta su banche dati pubbliche potrebbe essere il punto di svolta, qualcosa che cambierebbe radicalmente l’informazione scientifica garantendo non solo trasparenza ma anche più indipendenza.

Everyone should be free to learn; knowledge should be disseminated as widely as possible.
George Monbiot, The Guardian

I risultati dei trial clinici di maggiore portata trovano regolarmente spazio sulle riviste a più alto impact factor: sono le più ambite anche dalle aziende sponsor. Per la loro notorietà e diffusione, le grandi riviste di medicina possono fare molti danni [9]. Possono anche nuocere a chi spera di riuscire a pubblicare su quelle pagine, obbligandolo a un percorso lungo, tortuoso e con un approdo molto diverso da quello auspicato. A questo proposito ecco un’ulteriore domanda: ha ancora senso la peer review? Potrebbe presto arrivare il momento di affidarsi a una discussione aperta successiva alla pubblicazione. Se ne discute da tanti anni, sottolineando tutti i limiti della revisione critica: “un metodo laborioso e difficile”, scriveva il direttore del BMJ Ernest Hart nel 1893 [10], ma da raccomandare come il solo capace di promettere – se non garantire – accuratezza e credibilità. A fare i conti sul serio, però, valutare criticamente uno studio di quelli che contano costerebbe qualcosa come mezzo milione di dollari in ore lavorate da revisori competenti [11]. Perché è ancora utilizzato un sistema che prevede un percorso lento, inaffidabile, che in molti giudicano sempre più simile ad una lotteria? Anche chi più di ogni altro ha studiato la peer review inizia ad avere qualche dubbio: continuiamo a non sapere se è efficace “e, in sostanza, è non-scientifica” [12].

Fonti: grafici sulla qualità della peer review modificati da Bohannon J. Science 2013;342:60-5. Grafici sui motivi di rifiuto da parte del revisore e sullo scopo ed efficacia della peer review modificati da Elsevier, 2016.

Se stiamo andando verso una global conversation, l’indicatore del valore di uno studio potrebbe non essere più l’impact factor. Ci affideremo a qualcosa di diverso, come Altmetrics [13]? Nel 1979, la persona che proprio l’impact factor aveva inventato – Eugene Garfield – precisava che sebbene si credesse che questo parametro misurasse l’importanza di un articolo, o l’impatto di uno studio scientifico, quello che tutti vorrebbero capire è l’utilità di un articolo [14]. C’è da chiedersi se una
ricerca abbia più probabilità di essere “utile” finendo il giorno dopo sulla prima pagina del New York Times o del Corriere della Sera o venendo citata a distanza di mesi su una fonte accademica. Un tweetorial preparato tempestivamente da un ricercatore competente può incidere molto di più (quindi diventare “utile”) di una lettera al direttore che esce dopo qualche settimana e che in pochissimi leggono.

A proposito di impact factor, le riviste ad alto impact factor continueranno ad essere le più ambite da chi vuole pubblicare? Probabilmente sì, ma consideriamo che i valori (alti o bassi) sono determinati per lo più da pochi articoli molto citati, equilibrati da una maggioranza di altri lavori che passano quasi inosservati.
Lo stesso articolo pubblicato su due riviste con impact factor molto diverso è probabile raccolga un numero simile di citazioni [15] e, quindi, pubblicare su una rivista con impact factor elevato non è di per sé una garanzia di maggior successo. Allo stesso tempo, però, il moltiplicarsi delle riviste pubblicate dai cosiddetti predatory publishers non può essere una soluzione: servirebbero delle policy più precise da parte dei centri di ricerca che scoraggiassero i professionisti sanitari a pubblicare su periodici screditati.

Il valore dell’impact factor è determinato soprattutto da un ridotto numero di articoli molto citati. Per questo, è improprio assegnare un impact factor ad un singolo articolo in base all’impact factor della rivista.

L’impact factor è tenuto in massimo conto dai bibliotecari scientifici nella selezione delle fonti da sottoscrivere. Tra molte cose destinate probabilmente a cambiare, la biblioteca si è già trasformata diventando un luogo virtuale. Le collezioni di libri e riviste sono tutt’al più mal sopportate dalle aziende sanitarie e dagli istituti di ricerca. Il grande cambiamento, però, è soprattutto nel ruolo del bibliotecario: quanto dobbiamo aspettare perché si diffonda e sia accettata la figura del documentalista a supporto delle attività di ricerca? Ancora: considerata la migliorata competenza dei clinici nell’attività di ricerca bibliografica e la disponibilità di point-of-care-tool come UpToDate o DynamedPlus, il documentalista continuerà a svolgere una funzione di supporto dei clinici? Sappiamo però che la complessità della valutazione critica delle prove è aumentata, che le gerarchie delle evidenze sono superate [16] e che non sempre il ricorso a disegni di studio più robusti produce informazioni più affidabili: in quale modo le istituzioni sapranno sostenere il critical appraisal dei professionisti?

C’è infine un’ultima domanda: in quale considerazione le istituzioni centrali – Ministero della salute, Agenzia italiana del farmaco, Istituto superiore di sanità – e regionali tengono l’educazione continua del personale sanitario? L’accesso alle fonti di informazione è caratterizzato da forti disomogeneità: dall’offerta completa ed esauriente garantita in alcune aree (pensiamo alla Biblioteca virtuale della salute in Piemonte, alla Biblioteca medica virtuale nella Provincia autonoma di Bolzano o al Sistema bibliotecario biomedico lombardo) all’assenza di iniziative coordinate in molte altre regioni. Questa disuguaglianza può tradursi in un fattore di rischio nell’assistenza ai pazienti? Può essere l’ennesimo segnale di iniquità nel Servizio sanitario nazionale?

Major journals can also propagate more disease mongering than less visible journals.
— John Ioannidis, Stanford university

L’editoria scientifica gioca un ruolo essenziale nella disseminazione della ricerca e nell’aggiornamento del medico. Un ruolo troppo importante che impone sia affrontato e risolto il problema centrale: la mancanza di trasparenza e la diffusa presenza di condizioni di conflitto di interessi. Sono queste le ragioni che spingono un numero sempre maggiore di ricercatori a interrogarsi sulle questioni discusse in queste pagine [17]: le domande sono tante e le abbiamo presenti. Servono presto delle risposte.

aprile 2019

Bibliografia

1. Horton R. Offline: the crisis in scientific publishing. Lancet 2016;388,322.
2. Ioannidis JP, Klavans R, Boyack KW. Thousands of scientists publish a paper every five days. Nature 2018;561:167-9.
3. Williamson JW, German PS, Weiss R, et al. Health science information management and continuing education of physicians: a survey of US primary care practitioners and their opinion leaders. Ann Intern Med 1989;110:151-60.
4. McCartney M. Reading makes us better doctors. BMJ 2018;362:k3373.
5. Else H. Radical open-access plan could spell end to journal subscriptions. Nature 2018;561:17-8.
6. Haug CJ. No Free Lunch — What price Plan S for scientific publishing? N Engl J Med 2019; 380:1181-5.
7. www.alltrials.net
8. https://yoda.yale.edu
9. Ioannidis JP. Why most clinical research is not useful. PLoS Med 2016;13:e1002049.
10. Rennie D. Editorial peer review: its development and rationale. In: Peer review in health sciences. 2nd ed. London: BMJ Book, 2003.
11. Michalek AM, Hutson AD, Wicher CP, Trump DL. The costs and underappreciated consequences of research misconduct: a case study. PLoS Med 2010;7: e1000318.
12. Rennie D. Let’s make peer review scientific. Nature 2016;535:31-3.
13. Piwowar H. Altmetrics: Value all research products. Nature 2013;493:159.
14. Garfield E. Is citation analysis a legitimate evaluation tool? Scientometrics 1979;1:359-75.
15. Larivière V, Kiermer V, MacAllum CJ, et al. A simple proposal for the publication of journal citation distributions. bioRxiv 062109; doi: https://doi.org/10.1101/062109
16. Siegfried T. Philosophical critique exposes fl aws in medical evidence hierarchies. Science news, 13 novembre 2017.
17. Stern BM, O’Shea EK. A proposal for the future of scientific publishing in the life sciences. PLoS Biol 2019;17:e3000116.

Scarica il PDF