Skip to main content
Intelligenza artificiale Articoli

Watson accompagna il lavoro degli oncologi

Le grandi aspettative per l’innovazione sono temperate dall’atteggiamento prudente di alcuni esperti.

Eugenio Santoro

Responsabile del Laboratorio di informatica medica Dipartimento di salute pubblica Irccs – Istituto di ricerche farmacologiche “Mario Negri”, Milano

By Dicembre 2017Luglio 31st, 2020Nessun commento

Se il 2016 è stato l’anno dei big data in sanità, quello che si è appena concluso sarà ricordato come l’anno dell’intelligenza artificiale applicata al mondo della salute. A riportare al centro dell’attenzione una tematica non nuova (se ne parla, a fasi alterne, sin dagli anni cinquanta) ci hanno pensato Ibm (con il noto Ibm Watson), Google (con DeepMind) e altri big dell’informatica che vedono nell’intelligenza artificiale e nelle nuove metodiche di analisi della grossa mole di dati di cui oggi siamo circondati nuove aree di business.

Quello che infatti è cambiato rispetto al passato è la disponibilità di computer sempre più potenti capaci di gestire enormi quantità di dati (sempre meno strutturati e sempre più eterogenei come i dati genomici, quelli raccolti da app mediche e dai wearable, quelli provenienti dai social media, quelli riferiti alle linee guida, quelli archiviati nelle cartelle cliniche o in database come Medline) e di elaborarli attraverso algoritmi di machine learning e deep learning sempre più sofisticati in grado di imparare e di migliorarsi.

Attraverso le metodiche di interpretazione dei dati offerte dai nuovi sistemi di intelligenza artificiale nel corso di questi ultimi anni i produttori si sono concentrati nella messa a punto di strumenti in grado di effettuare diagnosi precoci, nella identificazione di molecole sulle quali puntare nel passaggio dal laboratorio alla clinica, nella ricerca di possibili relazioni tra dati genomici, medico-sanitari, nutrizionali ed economico-sociali con l’obiettivo di individuare possibili cure per diverse patologie [1].

Le promesse

Ibm Watson è uno dei casi più noti dell’impiego dell’intelligenza artificiale in medicina. La sua versione Watson for Oncology oggi accompagna il lavoro degli oncologi di oltre 50 centri ospedalieri sparsi in tutto il mondo e ne supporta l’attività confrontando i dati dei loro pazienti con la letteratura prodotta dalla riviste mediche, con le linee guida sviluppate dalle associazioni scientifiche internazionali e con lo “storico” di casi simili affrontati in passato per proporre la cura più appropriata [2].

Il sistema è stato addestrato dai medici oncologi dello Sloan Kettering cancer center di New York nel corso degli ultimi anni attraverso la somministrazione di protocolli terapeutici e regole per imparare ad applicarli nelle diverse casistiche, e viene proposto come un’evoluzione dei tradizionali sistemi per il supporto alle decisioni cliniche. I suoi sostenitori dichiarano che in futuro sarà in grado di curare i pazienti oncologici in maniera più equa, perché darà ai medici la possibilità di accedere alle conoscenze e alle cure più all’avanguardia, indipendentemente dal luogo in cui essi risiedono.

Tuttavia sono ancora molte le perplessità tra medici, scienziati e osservatori della stampa specializzata sui reali benefici che Watson for Oncology potrà portare [3]. Alcune riguardano i possibili bias metodologici (i dati utilizzati per addestrare il sistema provengono dalle storie cliniche dei pazienti americani, usati come standard, mentre i protocolli terapeutici implementati sono basati prevalentemente su studi e linee guida americani) che possano portare a conclusioni errate quando ci si riferisce pazienti non sufficientemente rappresentati. Altre hanno a che fare con il numero, per ora limitato, di forme di tumore che il sistema è in grado di riconoscere, e con la difficoltà a istruire nuovamente il sistema ogni volta che le linee guida sulle quali basa le sue decisioni cambiano o vengono aggiornate [4].

Watson non sarà l’ultimo tentativo di intelligenza artificiale in medicina che non si dimostrerà all’altezza delle grandiosi affermazioni. — David Gorski

Le incertezze

Altre ragioni impediscono a Watson for Oncology (così come ad altri sistemi simili) di imporsi stabilmente tra gli operatori sanitari ed entrare nei percorsi assistenziali.

La prima riguarda la carenza di studi clinici randomizzati pubblicati su riviste peer reviewed che ne dimostrino l’affidabilità e/o la maggiore efficacia rispetto ai sistemi tradizionali nel fare diagnosi o nel suggerire terapie appropriate. Tale carenza in certi casi è imputabile alla posizione assunta da alcune autorità regolatorie che non obbligano le aziende produttrici di sistemi di intelligenza artificiale a condurle per misurarne sicurezza ed efficacia. È ciò che è successo, per esempio, negli Stati Uniti e in Corea del sud dove Watson for Oncology ha fatto il suo ingresso negli ospedali come una qualunque metodica alla quale non si chiedono prove di efficacia, anticipando in questo il recente pensiero di Donald Trump secondo il quale le scelte non devono essere basate “sulle prove” ma “sulla scienza in considerazione degli standard e dei desideri della comunità”.

La seconda ragione riguarda la tutela della privacy e della sicurezza dei cittadini e dei pazienti. Tra le varie questioni aperte, una riguarda il consenso al trattamento dei dati sanitari personali ad opera di sistemi di intelligenza artificiale. Non si tratta di una questione secondaria, come dimostra il recente stop a una iniziativa congiunta di Google DeepMind e National health service inglese avvenuto proprio perché i pazienti non erano stati correttamente informati su come i propri dati sarebbe stati impiegati4. La stessa sensibilità non sembra invece emergere in Italia, come dimostra la recente decisione del governo italiano di autorizzare le multinazionali tecnologiche a usare i dati dei pazienti per scopi di ricerca scientifica o statistici, senza l’obbligo di richiedere il consenso degli interessati e/o di avvisarli [5].

I quesiti

Altre ragioni riguardano la regolamentazione dei sistemi di intelligenza artificiale e sollevano ulteriori quesiti. Per esempio sarebbe utile chiedersi se tali sistemi non debbano essere considerati al pari dei dispositivi medici e se non sia necessario definire specifiche responsabilità in caso di errore, o interrogarsi su come essi possano essere integrati nel contesto lavorativo di medici e infermieri. È necessario poi che i sistemi di intelligenza artificiale spieghino agli operatori come sono arrivati alla loro conclusione e decisione, fornendo le prove che sono alla base del loro ragionamento, in modo tale che essi possano eventualmente decidere di rifiutarsi di seguire il suggerimento se ritengono che siano stati commessi eventuali errori [1]. Andrebbe inoltre evidenziato e studiato il pericolo di sovraffidamento e di eccessiva dipendenza da tali sistemi che potrebbero avere seri effetti di dequalificazione e desensibilizzazione dei medici al contesto clinico.

E infine c’è la questione etica che solleva diversi interrogativi. Come si dovrebbe comportare un sistema di intelligenza artificiale se usato per prendere decisioni sulle cure di fine vita? Come ci si dovrà comportare se due sistemi di intelligenza artificiale iniziano a parlare tra loro una lingua sconosciuta all’uomo [6]? La bozza contenente raccomandazioni per disciplinare le applicazioni di robotica e di intelligenza artificiale a cui l’Unione europea sta lavorando potrà dare forse delle risposte [7].

Bibliografia

[1] Coiera E. et al, Baker M, Magrabi F. First compute no harm. The bmjopinion.com, 19 luglio 2017.
[2] www.ibm.com/watson/health/oncology-andgenomics/oncology/
[3] Casey R, Swetlitz I. Ibm pitched its Watson supercomputer as a revolution in cancer care. It’s nowhere close. Stat, 5 settembre 2017.
[4] Hern A. Google DeepMind 1.6m patient record deal ‘inappropriate’. The Guardian, 16 maggio 2017.
[5] Longo A. Dati sanitari alle multinazionali, senza consenso: passa la norma in Italia. La Repubblica, 5 dicembre 2017.
[6] Field M. Facebook shuts down robots after they invent their own language. The Telegraph, 1 agosto 2017.
[7] Committee on legal affairs. Draft report with recommendations to the Commission on civil law rules on robotics: European Parliament, 2016.