Skip to main content

ChatGPT

Diana Ferro, Jonathan Montomoli

Diana Ferro: Alla scoperta di GPT, Il report

Jonathan Montomoli: Il medico nell’era dell’intelligenza artificiale, Il report

Diana Ferro: Alla scoperta di GPT

Con la medicina predittiva e preventiva siamo in un campo relativamente nuovo, di provenienza statunitense, nel quale l’identificazione precoce dei rischi di sviluppare malattie e l’implementazione di misure per prevenirle o ritardarle sono le sfide principali. È proprio in questo ambito che l’intelligenza artificiale (IA) può giocare un ruolo chiave, perché mette a disposizione strumenti per l’analisi di grandi quantità di dati e l’individuazione di modelli predittivi. Diana Ferro, ricercatrice e data scientist presso l’Unità di ricerca di Medicina predittiva e preventiva dell’Ospedale pediatrico Bambino Gesù di Roma, a 4words24 ha aperto la sessione relativa alla parola ChatGPT: “Nonostante quello che si possa pensare, non esiste solo GPT (Generative Pre-trained Transformer)”, dichiara, “in medicina abbiamo tantissime IA che usiamo da circa vent’anni”, anche se spesso i pazienti, le persone comuni, non ne sono a conoscenza. L’IA infatti viene utilizzata quando si va dal radiologo che probabilmente se ne servirà per la refertazione o quando si entra in farmacia dove una IA stabilirà se i farmaci richiesti hanno interazioni.

Non fino a molto tempo fa, l’IA veniva utilizzata dai pochi del settore in grado di maneggiarla e che perlopiù ne facevano uso nei laboratori di ricerca, nell’Accademia e nelle università: “La utilizzavamo soprattutto per predire la funzione delle proteine, predire il futuro dell’evoluzione animale vegetale” continua Ferro. “Poi, a un certo punto, l’IA arriva nelle mani di tutti e anche nelle mani del medico”, al quale – però – non viene dato alcun libretto di istruzioni ma semplicemente una pagina web con una chat con cui interagire: “how can I help you today? Come posso aiutarti oggi?”. Per il medico una simile offerta di aiuto è sufficiente perché questa IA si configuri come uno strumento indispensabile a portata di mano. GPT esce, quindi, definitivamente dall’Accademia e diventa d’uso comune proprio grazie al fatto che, perché ciò possa avvenire, si crea lo strumento principe di interazione tra cliente e piattaforma: una chat. “Quelli che noi conoscevamo come modelli matematici classici – che andavano solo sui nostri piccoli computer – diventano delle cose semplicissime da utilizzare”, prosegue la ricercatrice del Bambino Gesù, “di cui nessuno o pochi sanno come funziona veramente; una rete complessa, neurale, a disposizione di tutti, dal bambino di due anni all’adulto di 80 in modo semplice e veloce”. La curiosità intorno a GPT aumenta successivamente al 2022 proprio quando la piattaforma viene provvisoriamente limitata dal Garante per la protezione dei dati personali attraverso un decreto d’urgenza1, per poi essere resa nuovamente accessibile da lì a poco. La diffusione esponenziale di GPT distrae – lì per lì – dalle conseguenze che un simile strumento può avere in termini di risorse: “Ogni volta che voi utilizzate GPT in realtà non state utilizzando qualcosa che è in Europa, bensì qualcosa che è negli Stati Uniti” – continua Ferro – e “per spostare le paroline della chat dall’Italia agli Stati Uniti viene consumata un’enorme quantità di risorse”. D’altronde più persone utilizzano un simile modello linguistico, più il modello impara, e più impara e sempre più dati è necessario spostare, con un consumo di energia altissimo. “Questa tecnologia si sta espandendo così in fretta da rischiare di lasciare indietro la ricerca che serve per renderla sicura”.

GPT, come già detto, non è l’unica IA disponibile. Si tratta di un mercato in forte espansione, nel quale per esempio ci sono Gemini e Mistral, per citarne solo due. E a seconda poi di quali dataset utilizzi la singola IA, le risposte ai quesiti variano. Essendo stata composta e sviluppata sul modello animale “l’IA generativa, a differenza di qualsiasi altra IA, ha la capacità di evolversi e questo fa paura perché si fa fatica a controllare ciò che si evolve o se anche lo si controlla si può fallire”. Quindi, come l’intelligenza umana, anche per quella artificiale possiamo andare a tracciare nel tempo quali sono stati i constraint (vincoli, limiti) che hanno dato modo a una nuova IA di emergere; e come per l’essere umano, bisogna capire “quali sono i paletti che determinano o meno l’insorgenza o la implementazione della capacità cognitiva di queste IA”, prosegue Ferro. Uno di questi paletti è sicuramente l’interazione con l’uomo. Visto che all’IA è stato chiesto di piacere sempre e comunque all’uomo, lo user, GPT funziona – anche in medicina – perché mette al centro delle sue risposte lo user, l’uomo, quindi il medico, il paziente.

Se da una parte i medici chirurghi operano sui cervelli umani, come i neuro-oncologi, intervenendo sulle varie parti del cervello, dall’altra i dottori di ricerca che fanno medicina predittiva e preventiva operano sui cervelli digitali. L’IA “è composta da una serie di neuroni, modellati in matematica”, continua Ferro, “e si comporta esattamente come si comportano i flussi di informazioni nelle varie parti del cervello”. Nel migliorare le copie digitali del cervello umano, ci si troverà davanti a fatti che si farà fatica a spiegare in quanto “black box”, a conferma di quanto si diceva: “più l’IA è brava ed evoluta, più non siamo in grado di controllarla”.

Qual è la differenza tra IA non generativa e IA generativa? La prima, nelle sue risposte, segue fondamentalmente degli algoritmi classici, quindi delle sequenze logiche; per cui nella sequenza “rosso, giallo, rosso, giallo, …” risponderà – per esempio – “rosso” alla domanda su quale colore segue dopo il giallo. Alla stessa domanda l’IA generativa risponderà probabilmente “arancione” in quanto “colore dello spettro percepibile dall’occhio umano, classificato come ‘colore caldo’, che si trova tra il rosso e il giallo e ha una lunghezza d’onda di circa 590-625 nanometri”, dando quindi una risposta che sulla base dei dati “digeriti” dall’IA è totalmente corretta. A quel punto però se noi umani – grazie ai quali l’IA generativa affina il suo funzionamento – le chiediamo di cercare un’altra risposta perché “arancione” è sbagliata, la risposta successiva potrebbe essere che, dopo l’ultimo giallo, vada messo il “viola”, in quanto colore complementare del giallo che ha quindi una stretta relazione con il giallo stesso. In questa seconda risposta, l’IA generativa mostra tutto il potenziale creativo delle IA: “quando chiediamo a GPT di darci delle idee per dei titoli suggerendogli 2 o 3 temi”, dice Ferro, “fa esattamente questo: prova a utilizzare quello che sa per proporci associazioni creative”. L’IA, in conclusione, può veramente essere di grande aiuto per il medico, e per la medicina, come d’altronde anche la data science: siamo, ovviamente, sempre noi user umani ad avere, però, l’ultima parola sulla correttezza o meno dei risultati dell’interazione con le IA.

A cura di Manuela Baroncini, Il Pensiero Scientifico Editore

Bibliografia
1. Provvedimento del 30 marzo 2023


Jonathan Montomoli: Il medico nell’era dell’intelligenza artificiale

“Cosa ci fa qui un anestesista? Faccio il mio spot!” esordisce scherzosamente Jonathan Montomoli aprendo il suo intervento a 4words 2024. “In realtà ho un dottorato in epidemiologia clinica. Non ho scritto libri, però cercherò di portarvi nella mia libreria”. E in effetti, dopo quest’affermazione, inizia a commentare a spron battuto una fitta carrellata di diapositive, articolate attorno a concetti chiave tratti dalle pubblicazioni per lui più rilevanti per farsi un’idea delle non banali implicazioni dell’utilizzo dell’intelligenza artificiale (IA) in ambito medico. “Il mio sogno” afferma “è che i medici possano gestire il trasferimento tecnologico portando beneficio al sistema sanitario pubblico, perché se no la gara è impari”. E a questo proposito introduce anche il suo conflitto di interessi, essendo cofondatore di uno spin-off universitario che sta sviluppando un braccialetto dotato di sensori che raccolgono e analizzano in tempo reale i dati vitali dei pazienti. Ma i dispositivi indossabili intelligenti sono solo una delle facce, anche se tra le più conosciute dal grande pubblico, della rivoluzione che la tecnologia sta apportando in medicina.

Il settore sanitario ha sempre cercato di integrare nuove tecnologie per migliorare la cura dei pazienti. Negli ultimi anni, tuttavia, l’intelligenza artificiale ha letteralmente cambiato il paradigma dell’interazione uomo-computer: da interfaccia è diventata rapidissimamente un generatore di contenuti e immagini con un potenziale illimitato. “I GPT sono large model, quello che sta dietro è in qualche modo un’interfaccia” sottolinea Montomoli. “Tutto il resto esiste da tempo. Ma cosa è successo? È stata lanciata Med-Gemini, la language model di Google trainata in ambito medico, con tutte le performance che ha. Ieri sera hanno lanciato GPT-4o. Prima la tastiera, poi il mouse, il touchpad, il riconoscimento vocale, lo smartphone e ChatGPT, che ha portato tutto al linguaggio permettendo di fare qualunque cosa. Posso chiedere di farmi un’immagine e la fa. Posso chiedere di farmi un codice e lo fa”. Non a caso, ChatGPT ha raggiunto 100 milioni di utenti in 2 mesi (Instagram ci ha messo 2 anni e 6 mesi). Ma non c’è solo GPT, si potrebbero naturalmente citare altri esempi di chatbot, come Claude o Consensus. Poi è arrivato anche Devin AI, sviluppato specificatamente per la creazione di algoritmi (non a caso è stato soprannominato “il primo ingegnere software AI”). Questi strumenti hanno ridotto enormemente il tempo necessario per affrontare problemi complessi e, come avverte Montomoli, “non abbiamo più tempo di pensare se non ci obblighiamo a farlo. Sappiamo tutti che è molto facile: ce l’ho, lo uso. Siamo in quel catch-up mood in cui cerchiamo di aumentare la nostra capacità di adattamento alla crescita esponenziale della tecnologia. Non sappiamo neanche più prevedere cosa succederà fra qualche mese. Quindi siamo nel caos. Un modello generativo, superato un certo numero di parametri, mostra delle proprietà per cui non è stato allenato. Fortunatamente il nostro cervello consuma un joule per minuto quando il language model ne consuma 2157. È molto performante, ma dobbiamo conoscere le limitazioni”.

Come sottolinea Daniel Kahneman in un libro che ha un posto di rilievo nella libreria di Montomoli (Thinking, fast and slow), abbiamo un budget di attenzione limitato da allocare alle nostre attività, se lo superiamo siamo destinati a fallire: potremo non vedere ciò che è ovvio ed essere inconsapevoli della nostra cecità1. “Siamo performanti ma dobbiamo essere consapevoli di come l’IA influenza le nostre scelte, anche quando non ce ne rendiamo assolutamente conto” ammonisce Montomoli. “Quindi dobbiamo prestare particolare attenzione alla triade letale: i dati che forniamo all’IA, la carenza di certificazioni e le regolamentazioni etiche e legali”2. Per quanto riguarda il primo punto, “se i dati, creati e selezionati dall’uomo, si basano su scelte disuguali o che comunque trasportano disuguaglianza, l’IA restituirà disuguaglianze3. Da dove vengono i dati? Nella stragrande maggioranza dalla Cina e dagli Stati Uniti… E poi c’è l’aspetto del minority report: vi mostro l’immagine degli Australian open con Nadal che stava perdendo due set a zero ed era sotto anche nel terzo set. Tutti gli algoritmi lo davano perdente… poi ha vinto”.

La dipendenza dai dati pone poi non pochi rischi in termini di privacy e sicurezza, e la necessità di enormi volumi di dati per “addestrare” questi sistemi potrebbe intensificare il rischio di bias, con algoritmi che potrebbero sviluppare pregiudizi non intenzionali basati sulle informazioni che ricevono. Inoltre, mentre la tecnologia promette di semplificare la pratica medica, esiste il rischio che si possa arrivare a un’eccessiva automazione, riducendo il valore dell’esperienza umana e dell’intuizione clinica nel processo decisionale medico4. Per non parlare dei pericoli derivanti dagli interessi delle grandi aziende che investono in ambito medicale. “Qual è la priorità? Pubblicare il prototipo. Tutto quello che è il difficile percorso di validazione esterna, controvalidazione, aggiustamento potrebbe invece passare in secondo piano. Molti modelli, poi, si concentrano su outcome che diminuiscono i costi, ma non vanno a vedere qual è l’outcome del paziente”. A questo proposito Montomoli fa l’esempio di un medical device basato su algoritmi di IA che predice 15 minuti prima l’ipotensione intraoperatoria, un progetto da decine di milioni di euro: “Simon Tilma Vistisen, un post-doc che lavora allo studio di validazione dei dati, non supportato dal supervisor si mette a fare simulazioni. E cosa scopre? Che fondamentalmente i parametri sono stati validati sulla popolazione totale senza considerare i falsi positivi. Simon segnala il problema, dà battaglia ricevendo in cambio minacce. Alla fine viene pubblicata una stringata errata corrige del paper. Punto. L’articolo è ancora lì, validato, e Simon viene bannato dal mondo dei congressi per un paio d’anni. C’è un bell’articolo che vi consiglio di leggere sulla sua storia”5.

Quindi che strumenti abbiamo? Dobbiamo riprendere il tempo per ragionare sulla complessità del sistema. Fermarci e decidere che evoluzione vogliamo dare alla nostra specie con l’IA6. Di fronte al progresso inarrestabile e tumultuoso delle innovazioni, è essenziale bilanciare l’entusiasmo per le nuove tecnologie con un impegno per la loro gestione responsabile ed etica.

Regolamentazioni chiare, protocolli di sicurezza rigorosi e un dialogo aperto tra scienziati, medici, pazienti e decisori politici saranno cruciali per assicurare che l’IA in medicina serva il bene comune, rispettando sempre la dignità e i diritti dei pazienti7. Mentre ci avventuriamo sempre più in profondità in questa nuova era, il settore sanitario si trova di fronte a un’opportunità senza precedenti di migliorare la cura dei pazienti. Ma da grandi poteri derivano grandi responsabilità: sarà compito di tutti noi garantire che questa nuova frontiera sia “navigata” con saggezza e umanità. Trasparenza, democratizzazione della ricerca, partecipazione attiva e vigilanza saranno i pilastri per costruire un futuro in cui la tecnologia e l’umanità avanzano insieme per il beneficio di tutti.

A cura di Bianca Maria Sagone, Il Pensiero Scientifico Editore

Bibliografia
1. Kahneman D. Thinking, fast and slow. London: Penguin Paperback, 2024
2. Bellini V, Montomoli J, Bignami E. Poor quality data, privacy, lack of certifications: the lethal triad of new technologies in intensive care. Intensive Care Med 2021; 47(9):1052-3
3. Celi LA, Cellini J, Charpignon M-L, et al. Sources of bias in artificial intelligence that perpetuate healtcare disparities. A global review/. Plos Digit Health 2022; 1(3):e0000022
4. Volovici V, Syn NL, Ercole A, et al. Steps to avoid overuse and misuse of machine learning in clinical research. Nat Med 2022; 28(10):1996-9
5. Skousgaard SA. The scientific scandal of the decade? Researcher takes on med-tech giant. 23 November 2023
6. Adler-Milstein J, Chen JH, Dhaliwal G. Next-generation artificial intelligence for diagnosis: from predicting diagnostic labels to “wayfinding”. JAMA 2021; 326(24):2467-8
7. Montomoli J, Bitondo MM, Cascella M, et al. Algor-ethics: charting the ethical path for AI in critical care. J Clin Monit Comput 2024 Apr 4