• Background Image

    Come cambia la ricerca

19 gennaio 2018

Come cambia la ricerca

La digital transformation della medicinaSebastiano Filetti
La piattaforma IT della Sapienza per la sanitàCarlo Catalano, Alberto Marchetti Spaccamela, Alessandro Mei, Maria Sabrina Sarto
Una scienza alienaMarco Motta

La digital transformation della medicina

Come si organizza una grande università per proporre soluzioni “intelligenti” e far incontrare l’innovazione tecnologica con la medicina

Sebastiano Filetti, preside della Facoltà di medicina e odontoiatria, Sapienza università di Roma

Innovazione e medicina, progresso tecnologico e sanità sono espressioni che oggi ritroviamo sempre più frequentemente nei media e servono a illustrare un settore in grande espansione ed evoluzione che promette maggiore disponibilità di risorse e di investimenti. La Sapienza università di Roma guarda a questo settore con grande attenzione e con programmi ben definiti che abbracciano diversi ambiti della tecnologia dell’informazione, tra cui l’intelligenza artificiale e la robotica.

L’intelligenza artificiale e in particolare le tecniche di apprendimento automatico sono oggi al centro di un interesse accademico, industriale e mediatico senza precedenti. Parte di questa attenzione è dovuta al ruolo primario che questi approcci data-driven assumono in molte delle tecnologie più innovative e importanti degli ultimi cinque anni: dalle automobili che si guidano da sole, ai droni con navigazione autonoma, ai sistemi di traduzione e riconoscimento del linguaggio in tempo reale. Questo “grande salto” si è reso possibile grazie alla potenza di calcolo che abbiamo oggi a disposizione e – soprattutto – all’ingente quantità di dati portata dall’uso sempre più pervasivo dei dispositivi mobili, così come delle reti sociali e delle nuove tecnologie di acquisizione dati a basso costo. Progettare nuove tecniche che siano in grado di apprendere senza (o con poca) supervisione umana è, pertanto, uno dei maggiori obiettivi dell’apprendimento automatico.

L’incontro della medicina con l’intelligenza artificiale non può essere casuale. Richiede una profonda sinergia d’intenti e di programmi comuni e interscambiabili.

L’incontro della medicina con l’intelligenza artificiale e più in generale con l’innovazione tecnologica non può essere casuale. Richiede necessariamente una profonda sinergia d’intenti e di programmi e linguaggi comuni e interscambiabili per svolgersi in modo strutturale. Un’università generalista come la Sapienza di Roma ha il notevole vantaggio di avere al proprio interno molteplici competenze specialistiche; e la stretta collaborazione tra dipartimenti d’informatica, ingegneria informatica, fisica, matematica e di medicina crea quella massa critica oggi necessaria per rendere concreti progetti di largo respiro in grado di abbracciare una vasta gamma di tecnologie dell’informazione (network medicine, big data, realtà virtuale, intelligenza artificiale, robotica) e di proporre soluzioni innovative e competitive in campo sanitario.

All’interno dell’ateneo della Sapienza si sta quindi sviluppando una piattaforma di information technology in grado di percorrere tutte le tappe di un percorso di innovazione tecnologica applicato alla sanità in virtù di un ambiente particolarmente fertile, con un forte potenziale sinergico tra aree tematiche diverse ma con interessi e obiettivi scientifici condivisi come ben si evince dai progetti che i dipartimenti coinvolti stanno condividendo. Questa complementarietà di competenze è una risorsa indispensabile nell’ambito dell’intelligenza artificiale, poiché porta direttamente a contatto gli esperti di dominio, loro stessi parte integrante della realtà accademica. La partecipazione della facoltà di medicina – con il suo ampio spettro di competenze unitamente a una visione moderna della sanità sia nella sua componente applicativa che organizzativa – consente di indirizzare nei processi decisionali i progetti in aree di unmet medical or social need ed è in grado di disegnare e organizzare quelle prove di efficacia e di analisi costo/beneficio necessarie per dimostrare il reale vantaggio di un’innovazione tecnologica rispetto all’approccio tradizionale.

È indispensabile che gli studenti universitari prendano confidenza con le tecnologie che daranno forma alla loro pratica medica nei prossimi anni.

Un aspetto fortemente positivo di una presenza attiva e propositiva della Facoltà di medicina nell’information technology è dato dal celere trasferimento dell’innovazione tecnologica nei corsi di laurea in medicina e nei corsi di studio professionalizzanti. Intelligenza artificiale, realtà virtuale e/o aumentata, network medicine, robotica, applicativi per smartphone stanno profondamente già modificando la medicina contemporanea e diventa, pertanto, indispensabile che oggi gli studenti dei nostri corsi di laurea prendano confidenza con le tecnologie che daranno forma alla loro pratica medica nei prossimi anni.

dicembre 2017


La piattaforma IT della Sapienza per la sanità

Carlo Catalano, Dipartimento di scienze radiologiche, oncologiche e anatomo-patologiche

Alberto Marchetti Spaccamela, Dipartimento di ingegneria informatica automatica e gestionale
Alessandro Mei, Dipartimento di informatica
Maria Sabrina Sarto, Dipartimento di ingegneria astronautica, elettrica ed energetica Sapienza università di Roma

Grazie alla capacità di estrarre e associare le informazioni rendendole rapidamente fruibili le tecniche informatiche moderne trovano numerose applicazioni in tutte le branche della medicina moderna, soprattutto nella diagnostica, in particolare in quella radiologica, e anche nel settore organizzativo-gestionale sanitario. Proprio in questa direzione si sta muovendo la piattaforma IT che vede coinvolti più dipartimenti della Sapienza di Roma da quelli di medicina interna e di scienze radiologiche, oncologiche e anatomo-patologiche, a quelli di ingegneria informatica automatica e gestionale e di informatica di ingegneria astronautica, elettrica ed energetica. La progettualità è arricchita dalle collaborazioni con enti di ricerca rinomati nello scenario internazionale, quali il Brigham and Women’s hospital della Harvard Medical School e l’MD Anderson di Houston.

Le architetture dei dati geometrici. Il professor Emanuele Rodolà del Dipartimento di informatica della Sapienza suggerisce che il limite inerente in molte delle tecniche correnti (quali le cosiddette reti neurali convoluzionali) risiede nell’assunzione che i dati geometrici su cui basare l’apprendimento siano in un certo senso “piatti”: un esempio sono le classiche fotografie digitalizzate come griglie planari di pixel o i dati di diagnostica per immagini disposti su griglie tridimensionali organizzate in sezioni. Al contrario, in molte applicazioni emergenti il dominio di esistenza dei dati non è planare e non ha una geometria rigida o regolare. Un esempio è costituito dalle reti sociali o di sensori, o ancora dalle reti di mappatura funzionale del cervello, o dalle superfici tridimensionali. Dati geometrici di questo tipo tendono a essere abbondanti e complessi (nel caso delle reti sociali, siamo sulla scala dei miliardi di nodi) e costituiscono un obiettivo naturale per le tecniche di apprendimento. Tuttavia, ci sono ostacoli matematici che impediscono l’applicazione diretta delle tecniche di apprendimento esistenti a dati geometrici di questo tipo e che sono tra gli argomenti più discussi nelle comunità di machine learning. All’interno della Sapienza, il Dipartimento di informatica sta concentrando i propri sforzi e le proprie progettualità in questa direzione approfondendo, in particolare, lo studio di reti sociali e di sensori, l’elaborazione del linguaggio naturale, la modellazione semantica, la visione artificiale e l’elaborazione geometrica.

L’AI per l’imaging biomedico. Nel campo della diagnostica per immagini sono in corso numerosi progetti che sfruttano le tecniche informatiche avanzate di intelligenza artificiale in grado di estrarre informazioni altrimenti difficilmente ottenibili dalla lettura delle sole immagini con l’occhio umano. Questi sistemi di intelligenza artificiale esaminano dei valori numerici prodotti dai dati digitali ottenuti con le apparecchiature di diagnostica che vengono trasformati in immagini per l’analisi visiva. All’interno della piattaforma IT della Sapienza un progetto fa riferimento nello specifico all’analisi dell’elasticità e dello stress delle pareti delle arterie dopo acquisizione con risonanza magnetica di sequenze a “contrasto di fase” cardio-sincronizzate: per questa specifica applicazione viene acquisito un numero enorme di dati, con produzione di alcune migliaia di immagini, che successivamente devono essere analizzate. Obiettivo del progetto è lo sviluppo di un sistema per l’analisi dei dati e la successiva produzione di valori di elasticità e stress delle pareti arteriose in grado di predire, in pazienti con aneurismi o dissezioni aortiche, il rischio di complicanze e il successo dei trattamenti miniinvasivi (stenting aortico).

Il data mining per classificare la scoliosi senza raggi x. I gruppi di ricerca coordinati da Valter Santilli, del Dipartimento di scienze anatomiche, istologiche, medico legali e dell’apparato locomotore, e da Laura Palagi, del Dipartimento di ingegneria informatica automatica e gestionale, stanno studiando nuove tecniche di data mining e intelligenza artificiale basate sull’uso della rastereografia per la diagnosi della scoliosi idiopatica adolescenziale, una deformità tridimensionale della colonna vertebrale che si manifesta prevalentemente in età prepuberale. Attualmente la diagnosi della malattia si basa su una valutazione posturale intuitiva e la conferma si ottiene mediante un esame radiografico che consente di evidenziare la rotazione vertebrale necessaria per classificare il tipo di scoliosi. La valutazione posturale basata sull’analisi della postura “statica” senza l’ausilio di raggi x rappresenta una difficoltà rilevante nella pratica clinica dei medici coinvolti nella gestione delle malattie dorsali, in particolare quelle che colpiscono bambini e adolescenti per i quali è particolarmente importante effettuare una diagnosi precoce per i rischi di potenziali peggioramenti durante la fase di accrescimento rapido.

La rastereografia è un metodo recentemente proposto per l’analisi tridimensionale che consente una ricostruzione delle curvature e deformità spinali per la valutazione delle asimmetrie strutturali e per lo studio della scoliosi. Questa tecnica diagnostica ha il vantaggio di non utilizzare radiazioni e può essere quindi impiegata senza rischi per analizzare e monitorare nel tempo le asimmetrie del tronco. Il macchinario utilizzato, Formetric, si basa sulla misurazione stereofotogrammetrica della superficie della schiena e fornisce più di cento diversi parametri quantitativi relativi alla postura del soggetto per ogni singolo esame. Il problema principale dell’applicazione della rastereografia alla pratica clinica e al suo utilizzo sullo screening della scoliosi idiopatica adolescenziale è rappresentato dalla mancanza di un sistema codificato per analizzare e interpretare la grande quantità di parametri ottenuti da una singola acquisizione. La realizzazione di un tale sistema consentirebbe un importante supporto diagnostico e potrebbe essere utilizzato in progetti di screening da effettuare nelle scuole per identificare i soggetti a rischio da sottoporre a successivi controlli e visite mediche.

Il gruppo di ricerca della Sapienza sta utilizzando tecniche di data mining e intelligenza artificiale per superare le difficoltà sopra menzionate e individuare modelli basati sulle misurazioni della rastereografia in grado di supportare i medici nella distinzione tra soggetti con scoliosi idiopatica adolescenziale e quelli sani.

La radiomica “intelligente”. Un altro progetto invece fa riferimento alla radiomica, ossia a quel campo della radiologia moderna, in grado di effettuare un’analisi quantitativa sempre maggiore e sempre più accurata partendo dalle immagini radiologiche, sfruttando le tecniche di intelligenza artificiale e data mining. In tal modo è possibile ottenere dagli esami radiologici tutte quelle informazioni che sfuggono all’occhio umano. Strettamente correlate alla radiomica è la radiogenomica, ossia quella tecnica in grado di correlare il fenotipo radiologico (ossia le caratteristiche radiologiche avanzate di una patologia) con il genotipo, in particolare in pazienti con patologie oncologiche. Sfruttando tecniche di intelligenza artificiale e deep learning nel Dipartimento di scienze radiologiche sono in corso numerosi studi al proposito, tra cui vanno menzionati quelli sulle neoplasie del retto, dell’apparato genitale e del polmone. Questi studi risultano essere estremamente importanti e avere un risvolto pratico per la definizione della prognosi del paziente, per la scelta della terapia e per la predizione della risposta alla terapia stessa.

ESR i-Guide come supporto decisionale in radiologia. Al Dipartimento di scienze radiologiche della Sapienza, il gruppo di ricerca guidato dal dottor Nicola Galea partecipa allo sviluppo del sistema ESR i-Guide: la guida informatica dell’European society of radiology per la richiesta di esami radiologici che aiuterà i medici nella scelta dell’esame radiografico più appropriato. La guida si basa sul deep learning delle richieste di esami radiologici negli ultimi dieci anni provenienti dal Policlinico universitario Umberto I, da altri centri europei e dal Massachusetts general hospital di Boston, integrato a quello delle linee guida internazionali che vengono continuamente aggiornate. Questo sistema appena elaborato entrerà già in sperimentazione nel Dipartimento della Sapienza e in alcuni centri in Europa.

dicembre 2017


Una scienza aliena

La conoscenza scientifica nell’era dell’intelligenza artificiale

Marco Motta, giornalista, Radio3 Scienza

Menti aliene si aggirano per il pianeta Terra. Potrebbe suonare come l’incipit di un romanzo di fantascienza di serie B. Invece è l’immaginifica sintesi di una riflessione comparsa nei mesi scorsi sulla rivista Wired a firma di David Weinberger, filosofo statunitense, che da tempo si dedica – in libri come La stanza intelligente – a esplorare le trasformazioni sociali, politiche ed epistemologiche innescate dall’era digitale. Le menti aliene sono quelle delle intelligenze artificiali che ormai lavorano fianco a fianco con scienziati e ricercatori in laboratori sparsi per tutto il mondo. In particolare da quando si è aperta l’era del deep learning, i più avanzati sistemi di machine learning (apprendimento automatico) che combinano più livelli di reti neurali artificiali (modelli matematici che simulano le reti di neuroni del cervello umano).

Alcuni mesi fa la rivista Science ha raccontato in un report come l’intelligenza artificiale sta cambiando il modo di fare ricerca scientifica. Tra i primi a impiegare sistemi di intelligenza artificiale nella ricerca sono stati già dalla fine degli anni ottanta i fisici delle particelle. Al Cern di Ginevra il bosone di Higgs è stato finalmente stanato nel 2012 grazie ad algoritmi basati su reti neurali che hanno “ricostruito” la presenza effimera di questa particella. Il bosone più ricercato di sempre si palesa una volta ogni miliardo di collisioni tra protoni, per decadere istantaneamente (a voler esser precisi nel giro di un miliardesimo di miliardesimo di secondo) in altre particelle. Ed è proprio analizzando con l’aiuto dell’intelligenza artificiale i pattern delle piogge di particelle prodotte nel grande acceleratore Lhc che i fisici del Cern hanno fatto la scoperta subito premiata con un Nobel.

Un gruppo di chimici di Losanna in Svizzera usa l’intelligenza artificiale per valutare migliaia di possibili nuovi materiali predicendone a livello teorico le proprietà per poi valutare l’opportunità di sintetizzarli e testarli in laboratorio. Altri invece – all’Università di Münster in Germania e a Stanford in California – stanno usando sistemi di apprendimento basati su reti neurali che, sulla base di milioni di reazioni chimiche analizzate, possano indicare la via migliore da percorrere per la sintesi di nuove molecole, una strada promettente ad esempio per la creazione di nuovi farmaci. In modo complementare società come Deep genomics, BenevolentAI e Calico stanno puntando tutto sulla capacità di reti neurali sempre più grandi e sofisticate di individuare le mutazioni responsabili di malattie più difficili da identificare. Altri esempi di uso estensivo dell’intelligenza artificiale si possono fare in astronomia per la ricerca di nuove galassie nella miriade fittissima di oggetti celesti, come stanno tentando al Politecnico di Zurigo, oppure ricerche come quelle condotte all’Università della Pennsylvania sulla salute mentale di campioni di popolazione, utilizzando machine learning e metodi di analisi del linguaggio naturale, e incrociando grandi messe di dati dai social network e dalle indagini epidemiologiche.

Qualsiasi tecnologia sufficientemente avanzata è indistinguibile dalla magia?

L’intelligenza artificiale aiuta gli editori

Ma non si tratta solo di ricerca in laboratorio. Anche sul fronte del processo di pubblicazione scientifica, l’intelligenza artificiale comincia a giocare un ruolo da protagonista. Un report pubblicato lo scorso maggio dall’editore delle riviste open access BioMed Central rendeva conto dei primi passi del machine learning nel contrasto ai plagi, al cattivo uso delle statistiche e alla fabbricazione di dati falsi negli articoli scientifici, ma anche nel lavoro di selezione di nuovi potenziali revisori per gli articoli. La prospettiva che si apre è una possibile completa automazione del processo di pubblicazione: i sistemi dedicati di intelligenza artificiale sarebbero in grado di valutare se un articolo è frutto di buona scienza e se è rilevante e meritevole di pubblicazione. Il vantaggio, secondo alcuni, sarebbe quello di eliminare alla radice l’influenza dei bias di revisori ed editor nella selezione e valutazione degli articoli, e tempi molto più rapidi, perfino immediati, per la pubblicazione. Ma certo si aprono innumerevoli interrogativi sui criteri che un’intelligenza artificiale adotterebbe nell’operare simili valutazioni. In ogni caso, come sottolineava l’editoriale del report di Science, l’intelligenza artificiale promette di imprimere un’accelerazione oggi difficilmente immaginabile alla ricerca scientifica e alla produzione di nuove scoperte.

Già, quel processo di scoperta delle leggi di natura che ha cambiato le sorti dell’umanità a partire dal XVI secolo, il metodo scientifico che ha rivoluzionato il nostro modo di conoscere e intervenire sulla realtà, che fine farà con l’impiego sempre più diffuso dell’intelligenza artificiale? Beninteso, nei quasi sei secoli trascorsi ormai dalla scintilla copernicana che innescò la rivoluzione del sapere, la natura del metodo scientifico è stata al centro di intensi dibattiti: dal metodo induttivista di sir Francis Bacon, che rivendicava il ruolo cardinale delle osservazioni empiriche, fino al metodo falsificazionista elaborato da un altro baronetto, sir Karl Popper, che rilancia il primato della teoria sulle osservazioni, e alle più recenti ramificazioni del dibattito filosofico contemporaneo, la riflessione sul principio di funzionamento della sofisticata macchina dell’impresa scientifica è più ricca e variegata che mai.

Verso una conoscenza senza comprensione

Oggi però potremmo trovarci di fronte a uno scenario epistemologico inedito. Secondo l’analisi di David Weinberger, siamo di fronte a una black box, una scatola nera che non ci permette di vedere gli ingranaggi del pensiero artificiale. I sistemi di intelligenza artificiale oggi sono in grado di costruire da sé i modelli per interpretare la realtà, grazie a reti neurali artificiali sempre più sofisticate. E questi modelli sono ormai al di là della comprensione umana. Così il futuro della scienza potrebbe assomigliare sempre più a una conoscenza senza comprensione. E quindi, conclude Weinberger, questo implicherebbe abbandonare una tradizione che trova le sue radici in Platone quando definiva la conoscenza una credenza vera giustificata. O, più prosaicamente, bisognerebbe dar ragione ad Arthur C. Clarke, lo scrittore di fantascienza che insieme al regista Stanley Kubrick diede forma nel 1968 al capolavoro 2001: Odissea nello spazio, quando affermava in una sua celebre massima “qualsiasi tecnologia sufficientemente avanzata è indistinguibile dalla magia”.

Un vago senso di magia in effetti circolava nell’aria nella primavera del 2016 quando è stata resa nota l’impresa di AlphaGo, il programma di intelligenza artificiale di DeepMind (società britannica controllata da Alphabet – Google) che ha sconfitto Lee Sedol, campione mondiale dell’antico gioco orientale del go. I resoconti erano zeppi di commenti sulla bellezza delle mosse e sulla “forma di intuizione” dimostrata da Alpha-Go nella serie di partite contro il campione sudcoreano. Nell’ottobre scorso poi DeepMind ha presentato una versione avanzata del programma, AlphaGo Zero, che si è dimostrata in grado di autoformarsi nel gioco del go, senza bisogno di apprendere da alcuna mossa somministrata da un agente umano. Vent’anni dopo la serie di sfide tra Deep Blue e il campione mondiale di scacchi Garry Kasparov che sancì la prima vittoria simbolica del computer sul giocatore in carne ossa e cervello, la performance di AlphaGo ha assunto il valore iconico dello strapotere delle forme avanzate di intelligenza artificiale sulla povera mente umana rimasta al palo.

Però, un momento di calma. Siamo sicuri che non ci sia un po’ troppa enfasi, uno scivolamento nel sensazionalismo, in questa narrazione delle sorti magnifiche e progressive dell’intelligenza artificiale? Le voci che invitano alla cautela vengono innanzitutto dal mondo dei ricercatori nel campo dell’intelligenza artificiale. Come Rodney Brooks, che ha diretto per molti anni i laboratori di intelligenza artificiale del Mit di Boston. In una recente analisi dal titolo “I sette peccati mortali delle previsioni sull’intelligenza artificiale”, Brooks ricorda che oggi “i robot e i sistemi di intelligenza artificiale sanno fare pochissime cose. La ricerca in questo campo non sta andando molto bene. Sembra bloccata sugli stessi problemi di razionalità e di buonsenso di cinquant’anni fa.” Sulla stessa linea d’onda sembra Luciano Floridi, cattedra di filosofia ed etica dell’informazione all’Università di Oxford, che nel recente volume La quarta rivoluzione ricorda che “la conoscenza è qualcosa di più dell’informazione, poiché richiede spiegazione e comprensione, e non soltanto verità e correlazioni”. Floridi tra l’altro fa notare che l’espressione “intelligenza artificiale”, coniata da John McCarthy nel 1955, è fuorviante innanzitutto perché non abbiamo una definizione circostanziata di intelligenza. “Fare previsioni è molto difficile. Specialmente riguardo al futuro”, amava scherzare il grande fisico Niels Bohr. Siamo solo all’inizio della rivoluzione che l’intelligenza artificiale porterà nella scienza, così come in molti altri settori della società. Iniziano però già a emergere alcuni problemi etici, sollevati per esempio dal comportamento razzista di alcuni bot sui social network, oppure riguardo alle scelte che dovranno compiere i software dei veicoli a guida autonoma in caso di rischio di incidente che possano coinvolgere altre persone. Negli Stati Uniti vengono ormai usati algoritmi che elaborano vastissimi database per profilare i clienti nell’accesso al credito, per gestire i turni di lavoro dei dipendenti o valutare le prestazioni degli insegnanti. In una serie di casi raccolti dalla matematica ed ex analista finanziaria Cathy O’Neil nel libro Armi di distruzione matematica, di cui molto si è discusso in ambito anglosassone, l’idea che i dati siano neutri e che gli algoritmi siano garanzia di oggettività si dimostra una fin troppo facile illusione tecnoilluminista.

La rivista New Scientist raccontava recentemente di un incontro a porte chiuse, svoltosi in una prestigiosa università britannica, che ha messo a confronto scienziati e umanisti per ragionare sui problemi filosofici ed etici sollevati dallo sviluppo dell’intelligenza artificiale. A chi assisteva l’impressione è stata quella di un dialogo tra sordi. Uno degli impegni cruciali della collettività nei prossimi anni sarà impostare una discussione più ampia e aperta possibile sui valori che dovrebbero guidare lo sviluppo dell’intelligenza artificiale, anche nel mondo della ricerca scientifica.

Bibliografia

  • Brooks R. The seven deadly sins of AI prediction. MIT Technology Review, 6 ottobre 2017.
  • Floridi L. La quarta rivoluzione. Milano: Cortina, 2017.
  • O’Neill C. Armi di distruzione matematica. Milano: Bompiani, 2017.
  • Weinberger D. La stanza intelligente. Torino: Codice, 2012.
  • Weinberger D. Our machines now have knowledge we’ll never understand. Wired, 18 aprile 2017.

dicembre 2017

0 Comments

Leave A Comment

Lascia un commento

Iscriviti alla newsletter di Forward

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

Pin It on Pinterest

Share This