Intelligenza artificiale Articoli

Una scienza aliena

Riflessioni sulla conoscenza scientifica nell’era dell’AI.

Marco Motta

Giornalista, Radio3 Scienza

By Dicembre 2017Luglio 31st, 2020No Comments

Menti aliene si aggirano per il pianeta Terra. Potrebbe suonare come l’incipit di un romanzo di fantascienza di serie B. Invece è l’immaginifica sintesi di una riflessione comparsa nei mesi scorsi sulla rivista Wired a firma di David Weinberger, filosofo statunitense, che da tempo si dedica – in libri come La stanza intelligente – a esplorare le trasformazioni sociali, politiche ed epistemologiche innescate dall’era digitale. Le menti aliene sono quelle delle intelligenze artificiali che ormai lavorano fianco a fianco con scienziati e ricercatori in laboratori sparsi per tutto il mondo. In particolare da quando si è aperta l’era del deep learning, i più avanzati sistemi di machine learning (apprendimento automatico) che combinano più livelli di reti neurali artificiali (modelli matematici che simulano le reti di neuroni del cervello umano).

Alcuni mesi fa la rivista Science ha raccontato in un report come l’intelligenza artificiale sta cambiando il modo di fare ricerca scientifica. Tra i primi a impiegare sistemi di intelligenza artificiale nella ricerca sono stati già dalla fine degli anni ottanta i fisici delle particelle. Al Cern di Ginevra il bosone di Higgs è stato finalmente stanato nel 2012 grazie ad algoritmi basati su reti neurali che hanno “ricostruito” la presenza effimera di questa particella. Il bosone più ricercato di sempre si palesa una volta ogni miliardo di collisioni tra protoni, per decadere istantaneamente (a voler esser precisi nel giro di un miliardesimo di miliardesimo di secondo) in altre particelle. Ed è proprio analizzando con l’aiuto dell’intelligenza artificiale i pattern delle piogge di particelle prodotte nel grande acceleratore Lhc che i fisici del Cern hanno fatto la scoperta subito premiata con un Nobel.

Un gruppo di chimici di Losanna in Svizzera usa l’intelligenza artificiale per valutare migliaia di possibili nuovi materiali predicendone a livello teorico le proprietà per poi valutare l’opportunità di sintetizzarli e testarli in laboratorio. Altri invece – all’Università di Münster in Germania e a Stanford in California – stanno usando sistemi di apprendimento basati su reti neurali che, sulla base di milioni di reazioni chimiche analizzate, possano indicare la via migliore da percorrere per la sintesi di nuove molecole, una strada promettente ad esempio per la creazione di nuovi farmaci. In modo complementare società come Deep genomics, BenevolentAI e Calico stanno puntando tutto sulla capacità di reti neurali sempre più grandi e sofisticate di individuare le mutazioni responsabili di malattie più difficili da identificare. Altri esempi di uso estensivo dell’intelligenza artificiale si possono fare in astronomia per la ricerca di nuove galassie nella miriade fittissima di oggetti celesti, come stanno tentando al Politecnico di Zurigo, oppure ricerche come quelle condotte all’Università della Pennsylvania sulla salute mentale di campioni di popolazione, utilizzando machine learning e metodi di analisi del linguaggio naturale, e incrociando grandi messe di dati dai social network e dalle indagini epidemiologiche.

Qualsiasi tecnologia sufficientemente avanzata è indistinguibile dalla magia?

L’intelligenza artificiale aiuta gli editori

Ma non si tratta solo di ricerca in laboratorio. Anche sul fronte del processo di pubblicazione scientifica, l’intelligenza artificiale comincia a giocare un ruolo da protagonista. Un report pubblicato lo scorso maggio dall’editore delle riviste open access BioMed Central rendeva conto dei primi passi del machine learning nel contrasto ai plagi, al cattivo uso delle statistiche e alla fabbricazione di dati falsi negli articoli scientifici, ma anche nel lavoro di selezione di nuovi potenziali revisori per gli articoli. La prospettiva che si apre è una possibile completa automazione del processo di pubblicazione: i sistemi dedicati di intelligenza artificiale sarebbero in grado di valutare se un articolo è frutto di buona scienza e se è rilevante e meritevole di pubblicazione. Il vantaggio, secondo alcuni, sarebbe quello di eliminare alla radice l’influenza dei bias di revisori ed editor nella selezione e valutazione degli articoli, e tempi molto più rapidi, perfino immediati, per la pubblicazione. Ma certo si aprono innumerevoli interrogativi sui criteri che un’intelligenza artificiale adotterebbe nell’operare simili valutazioni. In ogni caso, come sottolineava l’editoriale del report di Science, l’intelligenza artificiale promette di imprimere un’accelerazione oggi difficilmente immaginabile alla ricerca scientifica e alla produzione di nuove scoperte.

Già, quel processo di scoperta delle leggi di natura che ha cambiato le sorti dell’umanità a partire dal XVI secolo, il metodo scientifico che ha rivoluzionato il nostro modo di conoscere e intervenire sulla realtà, che fine farà con l’impiego sempre più diffuso dell’intelligenza artificiale? Beninteso, nei quasi sei secoli trascorsi ormai dalla scintilla copernicana che innescò la rivoluzione del sapere, la natura del metodo scientifico è stata al centro di intensi dibattiti: dal metodo induttivista di sir Francis Bacon, che rivendicava il ruolo cardinale delle osservazioni empiriche, fino al metodo falsificazionista elaborato da un altro baronetto, sir Karl Popper, che rilancia il primato della teoria sulle osservazioni, e alle più recenti ramificazioni del dibattito filosofico contemporaneo, la riflessione sul principio di funzionamento della sofisticata macchina dell’impresa scientifica è più ricca e variegata che mai.

Verso una conoscenza senza comprensione

Oggi però potremmo trovarci di fronte a uno scenario epistemologico inedito. Secondo l’analisi di David Weinberger, siamo di fronte a una black box, una scatola nera che non ci permette di vedere gli ingranaggi del pensiero artificiale. I sistemi di intelligenza artificiale oggi sono in grado di costruire da sé i modelli per interpretare la realtà, grazie a reti neurali artificiali sempre più sofisticate. E questi modelli sono ormai al di là della comprensione umana. Così il futuro della scienza potrebbe assomigliare sempre più a una conoscenza senza comprensione. E quindi, conclude Weinberger, questo implicherebbe abbandonare una tradizione che trova le sue radici in Platone quando definiva la conoscenza una credenza vera giustificata. O, più prosaicamente, bisognerebbe dar ragione ad Arthur C. Clarke, lo scrittore di fantascienza che insieme al regista Stanley Kubrick diede forma nel 1968 al capolavoro 2001: Odissea nello spazio, quando affermava in una sua celebre massima “qualsiasi tecnologia sufficientemente avanzata è indistinguibile dalla magia”.

Un vago senso di magia in effetti circolava nell’aria nella primavera del 2016 quando è stata resa nota l’impresa di AlphaGo, il programma di intelligenza artificiale di DeepMind (società britannica controllata da Alphabet – Google) che ha sconfitto Lee Sedol, campione mondiale dell’antico gioco orientale del go. I resoconti erano zeppi di commenti sulla bellezza delle mosse e sulla “forma di intuizione” dimostrata da Alpha-Go nella serie di partite contro il campione sudcoreano. Nell’ottobre scorso poi DeepMind ha presentato una versione avanzata del programma, AlphaGo Zero, che si è dimostrata in grado di autoformarsi nel gioco del go, senza bisogno di apprendere da alcuna mossa somministrata da un agente umano. Vent’anni dopo la serie di sfide tra Deep Blue e il campione mondiale di scacchi Garry Kasparov che sancì la prima vittoria simbolica del computer sul giocatore in carne ossa e cervello, la performance di AlphaGo ha assunto il valore iconico dello strapotere delle forme avanzate di intelligenza artificiale sulla povera mente umana rimasta al palo.

Però, un momento di calma. Siamo sicuri che non ci sia un po’ troppa enfasi, uno scivolamento nel sensazionalismo, in questa narrazione delle sorti magnifiche e progressive dell’intelligenza artificiale? Le voci che invitano alla cautela vengono innanzitutto dal mondo dei ricercatori nel campo dell’intelligenza artificiale. Come Rodney Brooks, che ha diretto per molti anni i laboratori di intelligenza artificiale del Mit di Boston. In una recente analisi dal titolo “I sette peccati mortali delle previsioni sull’intelligenza artificiale”, Brooks ricorda che oggi “i robot e i sistemi di intelligenza artificiale sanno fare pochissime cose. La ricerca in questo campo non sta andando molto bene. Sembra bloccata sugli stessi problemi di razionalità e di buonsenso di cinquant’anni fa.” Sulla stessa linea d’onda sembra Luciano Floridi, cattedra di filosofia ed etica dell’informazione all’Università di Oxford, che nel recente volume La quarta rivoluzione ricorda che “la conoscenza è qualcosa di più dell’informazione, poiché richiede spiegazione e comprensione, e non soltanto verità e correlazioni”. Floridi tra l’altro fa notare che l’espressione “intelligenza artificiale”, coniata da John McCarthy nel 1955, è fuorviante innanzitutto perché non abbiamo una definizione circostanziata di intelligenza. “Fare previsioni è molto difficile. Specialmente riguardo al futuro”, amava scherzare il grande fisico Niels Bohr. Siamo solo all’inizio della rivoluzione che l’intelligenza artificiale porterà nella scienza, così come in molti altri settori della società. Iniziano però già a emergere alcuni problemi etici, sollevati per esempio dal comportamento razzista di alcuni bot sui social network, oppure riguardo alle scelte che dovranno compiere i software dei veicoli a guida autonoma in caso di rischio di incidente che possano coinvolgere altre persone. Negli Stati Uniti vengono ormai usati algoritmi che elaborano vastissimi database per profilare i clienti nell’accesso al credito, per gestire i turni di lavoro dei dipendenti o valutare le prestazioni degli insegnanti. In una serie di casi raccolti dalla matematica ed ex analista finanziaria Cathy O’Neil nel libro Armi di distruzione matematica, di cui molto si è discusso in ambito anglosassone, l’idea che i dati siano neutri e che gli algoritmi siano garanzia di oggettività si dimostra una fin troppo facile illusione tecnoilluminista.

La rivista New Scientist raccontava recentemente di un incontro a porte chiuse, svoltosi in una prestigiosa università britannica, che ha messo a confronto scienziati e umanisti per ragionare sui problemi filosofici ed etici sollevati dallo sviluppo dell’intelligenza artificiale. A chi assisteva l’impressione è stata quella di un dialogo tra sordi. Uno degli impegni cruciali della collettività nei prossimi anni sarà impostare una discussione più ampia e aperta possibile sui valori che dovrebbero guidare lo sviluppo dell’intelligenza artificiale, anche nel mondo della ricerca scientifica.

Bibliografia

  • Brooks R. The seven deadly sins of AI prediction. MIT Technology Review, 6 ottobre 2017.
  • Floridi L. La quarta rivoluzione. Milano: Cortina, 2017.
  • O’Neill C. Armi di distruzione matematica. Milano: Bompiani, 2017.
  • Weinberger D. La stanza intelligente. Torino: Codice, 2012.
  • Weinberger D. Our machines now have knowledge we’ll never understand. Wired, 18 aprile 2017.

Lascia un commento