Skip to main content
Big data ArticoliTimeline

Assediati dai dati

Una storia in continua accelerazione che riguarda anche la clinica e la sanità pubblica: la timeline

By Novembre 2016Maggio 23rd, 2023Nessun commento

timeline bigdata

Era il 1662 quando John Graunt pubblicò a Londra il “Natural and political observations mentioned in a following index, and made upon the bills of mortality”. Secondo Stephen Mooney, Kimberly Westreich e Abdulrahman El-Sayed era la sintesi di un lavoro da demografo e statistico che anticipava alcuni tratti dell’epidemiologia moderna. L’editoriale “Epidemiology in the era of big data” [1], uscito sulla rivista Epidemiology, celebra dunque Graunt, mentre altre note recenti [2] indicano in John Snow l’antesignano del lavoro sui big data orientato alla salute.

Se è vero che nella locuzione “big data” il termine chiave è il secondo, c’è da dare ragione a chi vede i precursori in quanti hanno saputo lavorare con intelligenza sulle associazioni, muovendo dalle correlazioni alle ipotesi e alla determinazione delle cause. Ciò premesso, quella dei big data è storia recente, con una straordinaria progressiva accelerazione che rischia di rendere superata nel volgere di pochissimo tempo qualsiasi timeline. Volume, variabilità e velocità sono le caratteristiche fondanti dei big data, ma l’affermarsi di questa novità è stato talmente dirompente che spesso si finisce con l’accettare per big data qualsiasi aggregazione di dati che sia caratterizzata anche solo da uno degli elementi che teoricamente dovrebbero concorrere insieme a definirli. In altre parole, di fronte a “tanti” dati o che giungono da fonti diverse o che ci raggiungono in un rapido flusso costante crediamo comunque di essere alle prese con i big data.

Al contrario, l’elemento dirompente è nell’essere i dati generati in modo spontaneo: come il “diluvio” descritto nelle pagine del dossier dell’Economist del 2009, la pioggia torrenziale di fatti e cifre non richiede una rilevazione attiva e si modifica l’osservazione tradizionale, affidandone l’analisi ad algoritmi costantemente affinati. È il caso, per esempio, dei dati ambientali, sul clima o sulla qualità dell’aria o delle informazioni che costantemente aggiornano Google trends che non manca di ricordare che il suo obiettivo “è organizzare l’informazione planetaria e renderla universalmente accessibile e utile”.

L’impressione è di disorientamento: la previsione di Chris Anderson sull’obsolescenza del metodo scientifico conseguente alla resa allo tsunami di dati si traduce nello smarrimento di chi teme l’incapacità di governare un flusso di informazioni in crescita esponenziale. Ci si consola nella fantascienza della internet of things, con la speranza di un ecosistema addestrato a risolverci i problemi invece che a complicarci la vita: il frigorifero che ci avverte che il latte è finito, la caldaia che si avvia sollecitata dal meteo, l’automobile che ci porta a destinazione nel più breve tempo possibile informata dagli spostamenti di chi ha lasciato traccia sullo stesso nostro percorso. In questo modo riportiamo i big data a un livello più rassicurante: quello della nostra spesa o dello scaldabagno. Spaventati dall’evidenza che i big data “si riferiscono a quello che si può fare su larga e non su piccola scala, che dà nuove suggestioni o crea nuove forme di valore, con modi che cambiano i mercati, le organizzazioni, le relazioni tra cittadini e governi” [3].

Mettendo da parte la preoccupazione principale: l’evidenza che internet è lo spazio non governato più grande del mondo, il più grande esperimento di anarchia mai tentato nella storia [4].

Bibliografia

[1] Mooney SJ, Westreich DJ, El-Sayed AM. Epidemiology in the era of big data. Epidemiology 2015;26:390-4.
[2] Khoury MJ, Ioannidis JP. Big data meets public health. Science 2014;346:1054-5.
[3] Mayer-Schonhuber V, Cukier K. Big data: A revolution that will transform how we live, work, and think. Boston: Houghton Mifflin Harcourt, 2013.
[4] Schmidt E, Cohen J. The new digital age. New York: Knopf, 2013.