• Background Image

    Dalle promesse alla prudenza

19 Gen 2018

Dalle promesse alla prudenza

Intelligenza artificiale: questioni di etichetta?Federico Cabitza
In primo luogo calcola di non far danniEnrico Coiera, Maureen Baker, Farah Magrabi
Intelligenza artificiale e machine learning: hope or hype?Rebecca De Fiore

Intelligenza artificiale: questioni di etichetta?

Arginare il deskilling, restituendo il machine learning a un terreno meno visionario popolato da persone

Federico Cabitza, Università degli studi Milano-Bicocca, Irccs Istituto ortopedico Galeazzi di Milano

Intelligenza artificiale è un’espressione che fu scelta con la spavalda incoscienza tipica di quei ragazzi che, nel seguire la propria stella, non si curano troppo delle conseguenze delle loro esplorazioni. Intelligenza artificiale fu infatti l’etichetta che un gruppo di giovani e brillanti ricercatori (molti dei quali non ancora trentenni) scelsero, in un’estate del 1956, per denotare evocativamente gli interessi che li appassionavano e organizzare intorno a essi una nuova comunità scientifica, tesa a capire come l’attività della mente potesse essere descritta in maniera logico-formale, e quindi simulata da programmi eseguibili da una macchina.

La scelta di giustapporre questi due concetti – intelligenza e artificialità – spiega in larga parte la presa di questa espressione sul grande pubblico, ma anche molti dei fraintendimenti che essa può ingenerare. È storia poco nota che quello stesso gruppo di ricercatori considerò anche un nome alternativo per la sua disciplina: “machine intelligence”, intelligenza delle macchine. Per almeno un motivo questa espressione sarebbe stata migliore: essa non ispira, infatti, l’idea che macchine e uomini debbano competere tra loro, come copia e modello fanno in chi li confronta per capire quanto una si avvicina al secondo, oppure maestro e allievo, per capire se il secondo abbia superato in abilità e destrezza il primo.

Intelligenza delle macchine: se citiamo l’intelligenza dei gatti o l’intelligenza dei cani, ci riferiamo a un insieme di comportamenti che reputeremmo scorretto giudicare sulla base di un metro umano. Gatto e cane esibiscono intelligenze che non fatichiamo ad ammirare per come li rendono adatti al proprio ambiente, capaci di evitare i pericoli, procurarsi da vivere e stringere rapporti complessi con i propri simili e con noi. Allo stesso modo, una macchina può sorprenderci per la sua organizzazione e autonomia nell’esprimere una funzione complessa. Al contrario, quando ci riferiamo all’erba o alla luce artificiale siamo portati a immaginare qualcosa che può sostituire la versione “naturale” simulandone le caratteristiche più utili per un determinato scopo.

La colonizzazione dell’immaginario

La contrapposizione tra “umano” e “fatto dall’uomo”, tra naturale e artificiale, e il confronto competitivo tra questi due tipi di intelligenza non è solo un fenomeno di costume utilizzato da giornalisti e saggisti per intrigare il grande pubblico, o una strategia commerciale con cui le aziende produttrici di sistemi di intelligenza artificiale promuovono le proprie capacità di sviluppo (si pensi al battage pubblicitario di “imprese” quali quelle del computer Deep Blue dell’Ibm contro il campione di scacchi Garry Kasparov; del sistema Watson, sempre dell’Ibm, contro i campioni di Jeopardy! Ken Jennings e Brad Rutter; o del sistema AlphaGo, sviluppato da Google DeepMind, contro i campioni del mondo di go, Lee Sedol e KeJie). Siamo invece di fronte a quello che non esito a definire un processo di progressiva “colonizzazione dell’immaginario”, al cui interno diviene naturale confrontare esseri umani e sistemi di intelligenza artificiale sul piano della performance – secondo metriche che non sarebbero neppure concepibili se non fossero state istituzionalizzate negli ultimi cent’anni dalla speculazione intellettuale taylorista. È quindi divenuto usuale osservare come l’intelligenza artificiale sia raccontata persino negli articoli scientifici come “qualcosa” in grado di superare (outperform) le abilità diagnostiche di patologi, radiologi, oncologi e cardiologi. Di converso, quanti studi scientifici apparsi negli ultimi anni sulle riviste di medicina, più prestigiose e influenti, confrontano la performance di un gruppo di medici che utilizza un sistema di intelligenza artificiale con quella di un gruppo di medici similmente assortito che non adotta un tale sistema, con lo scopo di valutare il numero di prestazioni svolte, gli esiti clinici e la soddisfazione degli utenti coinvolti? Molto pochi, finora.

Inserita in reti di attori e pratiche umane, l’intelligenza artificiale le influenza e riconfigura.

Punti di vista diversi

La visione oggettivista dell’intelligenza artificiale, che la considera come qualcosa dotato di capacità autonoma e contrapposta a quella umana, si impone concretamente nell’immaginario collettivo, sebbene le aziende produttrici cerchino talora di presidiare anche immagini meno conflittuali, proponendo l’idea di “augmentazione” (amplificazione) delle capacità umane, in una riedizione surrettizia della cosiddetta “medicina eroica”. A tale visione, a mio parere va contrapposta una visione alternativa che cerchi di decolonizzare la nostra cultura da immagini competitive (addirittura sostitutive) e oggettiviste dell’intelligenza artificiale, per presentarla invece come elemento che, inserito in reti preesistenti di attori e pratiche umane, le influenza e riconfigura in vista di nuovi obiettivi e priorità. In tale visione, intelligenza artificiale è una semplice etichetta, che può denotare non tanto il sogno di accendere la scintilla dell’umano nell’inanimato quanto, più prosaicamente ma a mio parere più fedelmente, l’Automazione di compiti Intelligenti (per mantenere l’acronimo AI, Artificial Intelligence), cioè l’esecuzione da parte di macchine (robot o programmi software) di compiti che, se svolti da un essere umano, penseremmo gli richiedano un certo grado di competenza, esperienza e intelligenza. Interpretare l’intelligenza artificiale come automazione la riconduce a un terreno meno visionario ma più frequentato da esseri umani reali, persone impegnate nel loro lavoro, un luogo dove ha senso chiedersi: automazione di cosa? Automazione per quale motivo? Automazione nell’interesse di chi?

A differenza di chi trova affinità tra l’amplificazione sensoriale, che certe tecnologie (quali microscopi, stetoscopi ed elettrocardiografi) hanno garantito al medico, e l’amplificazione cognitiva, che l’intelligenza artificiale potrebbe fornire in futuro, mi sento di escludere che l’automazione di compiti cognitivi corrisponda a una amplificazione cognitiva. Mentre lo stetoscopio amplifica il suono del cuore e la radiografia amplifica (nel senso di renderlo visibile) un segnale elettromagnetico che attraversa un corpo per porre dinnanzi al medico un segno clinico nuovo dove c’è un elemento radio-opaco, il computer “intelligente” potrebbe piuttosto divenire la “protesi” che porta all’indebolimento della funzione organica originaria, che è cognitiva e interpretativa nel caso dell’intelligenza artificiale, presentando risposte già pronte a domande predefinite o, peggio, nascondendo bias cognitivi e algoritmici nell’oggettività del numero e delle alternative categoriche.

L’intelligenza artificiale ha bisogno di dati validati e interpretati. Da persone.

Maneggiare con cura

Molti commentatori illustrano un futuro in cui macchine intelligenti potranno sollevare i medici da compiti routinari così da lasciare loro più tempo per il rapporto con il paziente. Storicamente però, l’automazione è stata sempre volta ad un “efficientamento” degli ambienti produttivi laddove la volontà di introdurla e la perseveranza di diffonderla si sono affermate. Se è vero che viviamo in un periodo di graduale riduzione della forza lavoro medica e al tempo stesso di inesorabile aumento delle prestazioni richieste, l’automazione può essere una risposta ovvia a questo stato di cose che sarebbe vano contrastare. Sarebbe però ingenuo pensare che l’automazione, per dispiegare il suo ruolo produttivo, non richiederà sempre più dati che, se anche il medico non dovesse più aver l’onere di inserire, qualcuno dovrà pur validare e interpretare. Parimenti, sarebbe ingenuo pensare che affiancare al medico un “oracolo digitale” in grado di dare la risposta corretta in 19 casi su 20 non condizionerà il modo in cui gli specializzandi e i giovani medici apprenderanno gli elementi più taciti della loro pratica professionale (il saper fare), o la fiducia nella propria intuizione o caparbietà, o la capacità di riprendere il timone quando il “pilota automatico” si spegne – ad esempio perché manca la corrente oppure cade la rete di comunicazione dati – o la capacità di decifrare l’essere umano al cui capezzale i medici sono accorsi.

Ogni tecnologia che gli si metta tra le mani e che il medico decide di impiegare non dovrà mai distrarlo dalla sua missione principale: non nuocere a chi cerca il suo aiuto.

Condivido quindi gli appelli alla comunità medica a rendersi protagonista nel processo di trasformazione della propria professione che sollecita la nuova disponibilità alluvionale di dati sui e “dai” loro pazienti. Farlo è vitale, non tanto per governare o legittimare un processo di innovazione inevitabile, quanto piuttosto per difendere l’irriducibilità della condizione di bisogno di un malato alla dimensione codificata o quantitativa del dato e alla dimensione deterministica e predeterminata dell’algoritmo. Medico è un termine dall’origine antica la cui radice indica tanto colui che misura attentamente, quanto colui che pondera ciò che vede e medita sulle conseguenze delle proprie azioni. Ogni tecnologia che gli si metta tra le mani e che il medico decide di impiegare non dovrà mai distrarlo dalla sua missione principale: non nuocere a chi cerca il suo aiuto perché malato e, nel dare il suo aiuto, attenersi alla propria scienza e coscienza.

dicembre 2017


In primo luogo calcola di non far danni

Abbiamo bisogno di principi e regole nuove per governare l’intelligenza artificiale in medicina

Enrico Coiera, direttore Centre for health informatics Australian institute of health innovation Macquarie university, Sydney (Australia)
Maureen Baker, chief Shadow board Faculty of clinical informatics (Gran Bretagna)
Farah Magrabi, Centre for health informatics Australian institute of health innovation, Macquarie university, Sydney (Australia)

I medici sono guidati dal giuramento di Ippocrate a non recare danno, e dobbiamo sicuramente aspettarci lo stesso dall’intelligenza artificiale applicata alla medicina. Un tempo considerata una tecnologia del futuro, l’intelligenza artificiale sta diventando sempre più comune. Con un sistema sanitario che lotta per mantenere la propria forza lavoro e gestire i costi, e di fronte alla crescente complessità del servizio, vi è una evidente spinta a delegare compiti di routine all’intelligenza artificiale.

L’intelligenza artificiale di oggi si presenta in molte forme [1]. Le più comuni sono gli analytic tool per scopi specifici che trovano applicazione ovunque, controllando automaticamente i risultati di laboratorio o le immagini diagnostiche, fi no alla segnalazione precoce di focolai epidemici. Questi strumenti utilizzano algoritmi creati con il machine learning, dove la “intelligenza” risiede nel processo di apprendimento dai dati archiviati.

Gli agenti di conversazione come i chatbot offrono risposte intelligenti adattate a un insieme più ampio di circostanze e possono ad esempio vedersi affidato il compito di triaging dei pazienti in base ai loro sintomi, come il National health system sta ora sperimentando [2].

L’intelligenza artificiale intesa come entità autonoma e capacità di ragionare in senso ampio è nota come intelligenza generale forte (artificial general intelligence), e resta anni lontana. La information technology modella profondamente i processi decisionali umani ma, se mal progettata o utilizzata, può causare danni ai pazienti [3]. Notoriamente le leggi di Asimov obbligarono i robot a non fare del male o uccidere un essere umano o, attraverso l’inazione, a non permettere a un essere umano di essere danneggiato, e queste leggi dovevano essere scritte nel loro dna digitale. Eppure ogni nozione di danno e beneficio è plasmata culturalmente e definita in modo individuale. Mentre le leggi di Asimov originate nella finzione hanno fornito l’impalcatura basilare per pensare alla sicurezza dell’intelligenza artificiale. Semplici regole che, sfortunatamente, diventano presto inutili nella complessa giungla etica che è l’assistenza sanitaria [4].

Cosa accadrebbe ad esempio se l’intelligenza artificiale fosse ammessa al processo decisionale di fi ne vita? I medici si stanno già interrogando se algoritmi che valutano il rischio di morte saranno un elemento scatenante di discussioni con pazienti e familiari [5]. È accettabile che degli algoritmi oggi, o una intelligenza generale forte tra un decennio, suggeriscano l’interruzione di cure aggressive e quindi l’accelerazione del processo del morire? O in alternativa, se raccomandasse la prosecuzione di cure superflue? La nozione del “non nuocere” si estende ulteriormente quando un’intelligenza artificiale si trovi a dover scegliere tra beneficio per il paziente e vantaggio per la società. Abbiamo quindi bisogno di sviluppare principi di ampie vedute per governare la progettazione, la creazione e l’uso dell’intelligenza artificiale nell’assistenza sanitaria. Questi principi dovrebbero tenere in considerazione i tre domini rappresentati dalla tecnologia, dagli utenti e dal modo con cui entrambi interagiscono nel sistema sanitario (socio-tecnico) [6,7].

Abbiamo quindi bisogno di sviluppare principi per governare l’intelligenza artificiale nell’assistenza sanitaria.

Innanzitutto, come qualsiasi tecnologia, l’intelligenza artificiale deve essere progettata e costruita per soddisfare gli standard di sicurezza, che assicurano che sia adatta allo scopo e funzioni come previsto [8], e le esigenze di coloro che lavoreranno con essa adattandosi ai loro fl ussi di lavoro [9]. Una cosa è non fare del male, altra è perdere tempo o far lavorare di più le persone perché si adeguino all’intelligenza artificiale. Il punto in cui gli esseri umani saranno completamente esclusi dal ciclo decisionale e le attività saranno delegate alla macchina varierà in base all’attività e al setting. Decidere quando verrà raggiunto quel punto richiederà metodi che dovranno valutare la sicurezza, l’efficacia e l’accettabilità. Tali test non potranno del tutto garantire la sicurezza dei comportamenti di un’intelligenza artificiale complessa nel real world, pertanto saranno necessari un monitoraggio prospettico e procedure a prova di guasti (fail-safe). Le intelligenze generali forti future potrebbero anche avere una consapevolezza intrinseca dei principi di sicurezza per consentire loro di navigare in situazioni inaspettate [10].

In seconda istanza sono necessari dei principi che garantiscano l’attendibilità delle deduzioni o le azioni di un’intelligenza artificiale. Forse, questa dovrebbe essere in grado di spiegare come è giunta a una conclusione e fornire prove a sostegno del proprio ragionamento [11]. Un corollario potrebbe essere che gli umani abbiano il diritto di contestare la decisione di una intelligenza artificiale se credono che sia caduta in errore. La spiegazione è semplice quando la conoscenza all’interno di un’intelligenza artificiale è esplicita, come una regola clinica, nel senso che può indicare l’applicabilità della regola alla situazione attuale. Tuttavia, per le intelligenze artificiali basate su reti neurali di oggi dare una spiegazione è difficile perché la conoscenza non è più esplicita ma codificata in modo non trasparente nelle connessioni tra “neuroni”.

Altri problemi emergono quando le intelligenze artificiali sono costruite usando il machine learning, estrapolando la conoscenza da grandi insiemi di dati. Se i dati sono inaccurati o mancanti, potrebbero non essere adatti allo scopo di informare un’intelligenza artificiale o di prendere decisioni. Se i dati sono distorti, lo sarà anche la conoscenza dell’intelligenza artificiale. I bias nascosti possono discriminare alcuni pazienti in base al genere, all’etnia o alla malattia, perché sottorappresentati nei dati originali utilizzati per “formare” l’intelligenza artificiale [12].

Abbiamo anche bisogno di principi che governino il modo di usare l’intelligenza artificiale che non dovrebbe essere spinta oltre i limiti dell’obiettivo della sua progettazione o dell’autorità che gli è stata delegata. Dovremmo riconoscere che le nostre prestazioni sono alterate quando lavoriamo con l’intelligenza artificiale. Il cosiddetto automation bias, per esempio, si verifica quando le persone delegano troppo alla tecnologia e riducono la vigilanza [13]. Di conseguenza, gli esseri umani possono cadere “fuori dal circuito”, non notare eventi critici o non comprendere l’accaduto al punto di non riuscire a recuperare la situazione dopo un incidente. Se le persone sono responsabili di un risultato, dovrebbero essere obbligate a rimanere vigili, anche dopo aver delegato dei compiti a un’intelligenza artificiale.

L’intelligenza artificiale metterà in discussione la nostra concezione del lavoro clinico, il dovere professionale e la natura stessa e la progettazione dei servizi sanitari.

Queste considerazioni vanno ben oltre lo scopo degli attuali processi regolatori per i dispositivi medici. Includono discussioni su valori ed etica, ed è probabile che richiedano frequenti revisioni man mano che crescono competenze e ruoli per l’intelligenza artificiale [14]. L’Unione europea sta sviluppando un framework per le implicazioni giuridiche ed etiche dei robot [15].

L’assistenza sanitaria deve anche impegnarsi nello sviluppo di principi e di strutture normative e di governance che rendano la transizione verso un sistema sanitario compatibile con l’intelligenza artificiale il più sicuro ed efficace possibile. La governance dei singoli sistemi di intelligenza artificiale è probabilmente di chi è già incaricato della supervisione o della regolamentazione dell’information technology nel settore sanitario. Potrebbe richiedere uno sforzo significativo l’adattamento ai diversi profili di rischio di questa tecnologia. Il governo, i servizi sanitari, i gruppi di consumatori e le professioni cliniche dovranno concentrarsi sulle implicazioni operative. Per esempio, l’intelligenza artificiale richiederà dei cambiamenti dalla formazione ai flussi di lavoro clinici.

Se incarnata in un robot o dispersa attraverso una rete di computer, l’intelligenza artificiale metterà in discussione la nostra concezione del lavoro clinico, il dovere professionale e la natura stessa e la progettazione dei servizi sanitari. Se riusciremo a farlo nel modo giusto, creeremo un mondo in cui noi, come clinici o pazienti, lavoreremo al sicuro fi anco a fi anco con i nostri preziosi amici computer.

Questo articolo riprende il post degli autori pubblicato su BMJ Opinion. Ringraziamo gli autori e il BMJ per l’autorizzazione.


Bibliografia

[1] Coiera E. Guide to health informatics (3rd edition). London: CRC Press, 2015.
[2] Burgess M. The NHS is trialling an AI chatbot to answer your medical questions. Wired, 5 gennaio 2017.
[3] Kim MO, Coiera E, Magrabi F. Problems with health information technology and their effects on care delivery and patient outcomes: a systematic review. J Am Med Inform Assoc 2017;24:246-50.
[4] Clarke R. Asimov’s laws of robotics: implications for information technology – Part I. Computer1993;26:53-61.
[5] Cardona-Morrell M, Chapman A, Turner RM, et al. Pre-existing risk factors for in-hospital death among older patients could be used to initiate end-of-life discussions rather than rapid response system calls: a casecontrol study. Resuscitation 2016;109:76-80.
[6] Coiera E. Four rules for the reinvention of healthcare. BMJ 2004;328:1197-99.
[7] Sittig DF, Singh H. A new sociotechnical model for studying health information technology in complex adaptive healthcare systems. Qual Saf Health Care 2010;19(Suppl 3):i68-i74.
[8] Fox J, Das S. Safe and sound: artificial intelligence in hazardous applications. Cambridge Mass: MIT Press, 2000.
[9] Coiera EW. Artificial intelligence in medicine: the challenges ahead. J Am Med Inform Assoc 1996;3:363-66.
[10] Ong MS, Magrabi F, Coiera E. Syndromic surveillance for health information system failures: a feasibility study. J Am Med Inform Assoc 2012;20:506-12.
[11] Shortliff e EH, Axline SG, Buchanan BG, et al. An artificial intelligence program to advise physicians regarding antimicrobial therapy. Comput Biomed Res 1973;6:544-60.
[12] Reynolds M. Bias test to prevent algorithms discriminating unfairly 201. New Scientist, 29 marzo 2017.
[13] Lyell D, Coiera E. Automation bias and verification complexity: a systematic review. J Am Med Inform Assoc 2017:1;24:423-31.
[14]  Anderson M, Anderson SL. Machine ethics. Cambridge: Cambridge University Press, 2011.
[15] Committee on legal affairs. Draft report with recommendations to the Commission on civil law rules on robotics: European Parliament, 2016.

dicembre 2017


Intelligenza artificiale e machine learning: hope or hype?

Le grandi aspettative per l’innovazione sono temperate dall’atteggiamento prudente di alcuni esperti

Rebecca De Fiore, Corso Reporting, Scuola Holden, Torino

Molestie sessuali? Ci pensa l’intelligenza artificiale. Intelligenza artificiale per ottimizzare il flusso dei turisti. L’intelligenza artificiale ha creato un album black metal. Google crea un’intelligenza artificiale capace di creare altre intelligenze artificiali. L’intelligenza artificiale e i soldati robot mettono piede in parlamento. Sono solo le prime cinque tra le notizie rilanciate da Twitter nel giorno in cui scriviamo. Enormi aspettative, dunque, e solo qualche dubbio a cui rispondono i commentatori più determinati.

Machine learning e intelligenza artificiale sono l’argomento del giorno, anche se giornalisti come Gianni Riotta lamentano che siano fuori dall’agenda della politica e dai temi della campagna elettorale che si è aperta nelle ultime settimane. Sono argomento d’attualità e al vertice dell’hype cycle delle tecnologie emergenti creato e aggiornato annualmente dall’agenzia Gartner. E la cosa più clamorosa è che si tratta di new entry, non essendo state considerate negli scorsi anni [1]. Hype cycle sta per “andamento ciclico dell’esagerazione” perché la teoria elaborata una decina d’anni fa da Jackie Fenn e Mark Rasino, formalizzata in un libro di successo, Mastering the hype cycle [2], è che trasformare un’idea o un prototipo in un prodotto affidabile è questione di anni, forse di decenni. “L’esagerazione si muove più veloce del progresso”, quindi, e nasce spesso dal successo di una singola tecnologia o dalla sua applicazione a un ambito specifico: il cosiddetto breakthrough attiva l’attenzione degli “early adopter” e degli “evangelist” che in questi casi non mancano mai e sono in prima linea per sollecitare l’attenzione del pubblico su tutto ciò che promette di essere “disruptive” per il sistema. Ed è quindi la volta dei media, generosamente disponibili a utilizzare i superlativi annunciando che il Futuro (con la maiuscola) è alle porte: anzi, ci siamo già entrati. Un’enfasi forse eccessiva, però, non significa che una grande novità annunciata non si traduca poi in un’innovazione capace di trasformare le relazioni umane, le dinamiche economiche e produttive. Alla fine, spiega Fenn in un’intervista a Slate, è una questione di tempo [3].

Il rischio che a una sopravvalutazione delle potenzialità dell’applicazione dell’intelligenza artificiale alla medicina corrisponda successivamente una fase di disillusione è reale [4]. Ma occorre considerare che la digital health – forse il primo gradino del machine learning in sanità – è più probabile che abbia un hype cycle più rallentato, perché quello di salute e medicina è un mercato di riferimento più complesso e difficile di altri: protezione brevettuale stringente, controlli regolatori, difficoltà dei pazienti ad agire come veri e propri “consumatori” fino in fondo liberi di scegliere, controllo delle dinamiche assistenziali da parte dei medici, molto spesso prudenti nei riguardi dell’innovazione [5]. Il futuro descritto dagli evangelisti del machine learning è troppo bello per essere vero, sostiene Ezekiel J. Emanuel, medico e bioeticista non nuovo ai lettori di Forward [6], in un breve saggio uscito sul Wall Street Journal [7]. Tecnologie e machine learning cambieranno i modi con cui è erogata l’assistenza e con cui sono effettuate molte prestazioni sanitarie, tuttavia non risolveranno il problema maggiore della sanità nei paesi a economia avanzata: cambiare i comportamenti delle persone. Il cambiamento radicale, spiega Emanuel, può giungere solo dalla riduzione del numero dei cittadini che soffrono di malattie che dipendono dalla cattiva alimentazione, dallo scarso esercizio e dall’abitudine di fumare.

Ma cosa c’entra tutto questo con l’intelligenza artificiale? C’entra perché la tecnologia non si è ancora dimostrata utile per migliorare l’aderenza alle prescrizioni del medico, tanto che riguardino l’assunzione di medicinali quanto lo stile di vita. Emanuel cita diversi esempi, tra cui uno studio che ha messo a confronto pazienti con scompenso cardiaco teleassistiti con altri assegnati a un’assistenza ordinaria e che non ha mostrato differenze di sopravvivenza o di nuovi ricoveri. “Il monitoraggio continuo promesso dalla tecnologia è evidentemente uno spreco”, anche perché le persone che più potrebbero beneficiarne, gli anziani, sono quelle che hanno meno dimestichezza con il tech. Gli argomenti sollevati dalla nota sul Wall Street Journal si ricollegano allo stato della mobile health, che non esaurisce le potenzialità del machine learning ed è solo un aspetto molto elementare dell’apporto delle tecnologie alla salute. Un articolo sul New England Journal of Medicine sottolinea come stia ancora muovendo i primi passi: a fronte delle oltre 1200 app mediche già catalogate, non disponiamo di prove della loro efficacia per migliorare la salute dei cittadini: “la gran parte dei programmi non è valutata in modo sensato e la letteratura è dominata da casi clinici e studi di piccole dimensioni” [8].

Queste critiche sembrano a molti un po’ conservatrici: davvero siamo fermi alla contrapposizione tra high-tech e high-touch, tra tecnologia ed empatia e contatto umano?

L’onda di popolarità 2017 delle tecnologie digitali. L’hype cycle di Gartner visualizza il ciclo di vita delle tecnologie emergenti valutandone e prevedendone il livello e i tempi di diff usione nell’adozione. Il ciclo si sviluppa in cinque fasi: lo scatto tecnologico (technology trigger), il picco delle aspettative esagerate (peak of infl ated expectations), la gola della disillusione (trough of disillusionment), la salita (slope of enlightement), il piano della produttività (plateau of productivity). Nel ciclo del 2017 l’intelligenza artifi ciale è il settore di maggiore tendenza: il machine learning e deep learning occupano il vertice del picco con dei tempi di adozione dai 2 ai 5 anni. Fonte: Gartner 2017.

Bibliografia

[1] Columbus L. Gartner’s Hype cycle for emerging technologies, 2017 adds 5G and deep learning for first time. Forbes, 15 agosto 2017.
[2] Feun J, Raskino M. Mastering the hype cycle. Boston: Harvard Business Press, 2002.
[3] Oremus W. The never-ending hype cycle. Slate, 4 giugno 2014.
[4] Chen JH, Asch SM. Machine learning and prediction in medicine: beyond the peak of infl ated expectations. New Engl J Med 2017;376:2507-9.
[5] Hixon T. Digital health slides down the back side of the hype curve. Forbes, 10 ottobre 2016.
[6] Ambrosino F. Saper guardare dietro le apparenze. Recenti Prog Med 2017; suppl Forward 5; S29-S31.
[7] Emanuel EJ. The hype of virtual medicine. Wall Street J, 10 novembre 2017.
[8] Roess A. The promise, growth, and reality of mobile health: another data-free zone. New Engl J Med 2017;377:2010-1.

dicembre 2017

0 Comments

Leave A Comment

Lascia un commento

  • ISCRIVITI ALLA NEWSLETTER DI FORWARD

    Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

    Informativa sul trattamento dei dati.

  • Pin It on Pinterest

    Share This