Sono passati vent’anni dalla pubblicazione del suo libro Intelligenza artificiale e metodo scientifico, che è stato anticipatore degli interrogativi e delle riflessioni che lo sviluppo dell’intelligenza artificiale ha sollevato negli ultimi anni. Un arco di tempo che separa anche due eventi simbolo del confronto tra intelligenza umana e artificiale, le sfide tra Deep Blue e Kasparov e AlphaGo contro Sedol. Si è parlato di un passaggio dalla semplice potenza bruta di calcolo allo sviluppo, con il deep learning, di facoltà proprie di un’intelligenza umana quale l’intuizione. Siamo di fronte a una svolta anche da un punto di vista filosofico?
Quando ho cominciato a interessarmi all’intelligenza artificiale negli anni ottanta, scoprii che molte delle questioni di filosofia della scienza che erano state al centro dei miei interessi – i fondamenti della teoria della probabilità e della statistica e la filosofia della logica – erano al cuore dello sviluppo dell’intelligenza artificiale. Lo strumento principale allora era, e rimane ancora oggi, il machine learning, programmare macchine perché compiano induzioni. Tu inserisci dati e loro producono leggi, regole e predizioni a partire da quei dati. Ci tengo a precisare che in questi anni non ho seguito nel dettaglio gli avanzamenti del machine learning. Tuttavia la mia impressione è che, certo, gli algoritmi sono migliorati parecchio, la potenza di calcolo dei computer è aumentata, i programmi riescono a fare molto più cose e molto meglio di vent’anni fa, ma non ho visto l’introduzione di idee nuove che abbiano modificato in modo radicale il quadro da un punto di vista filosofico. Lei ha citato il deep learning, che è un’evoluzione delle reti neurali che rappresentavano uno degli approcci principali dell’intelligenza artificiale già negli anni novanta. Per quanto ne so, il deep learning ha introdotto algoritmi di ordine superiore per le reti neurali, ma non concetti nuovi nell’intelligenza artificiale.
Il suo collega David Weinberger parla di menti aliene che creano modelli di interpretazione della realtà in modo autonomo, e avverte che noi non siamo più in grado di capire il loro modo di ragionare. Si può dire che lo statuto della conoscenza scientifica stessa sta cambiando?
Non sono d’accordo con quello che dice Weinberger, e penso che commetta degli errori da un punto di vista filosofico. Il problema principale sta in una distinzione fondamentale: conoscere come (knowing how, la conoscenza pratica) e conoscere cosa (knowing that, la conoscenza teorica). Per fare un esempio, un calciatore esperto sa benissimo come trattare il pallone in modo da fare goal, ma se gli chiedi come lo fa non te lo saprà dire. Con la pratica, l’apprendimento empirico sa come farlo, ma la conoscenza teorica è un’altra cosa. Weinberger su questa distinzione è molto confuso. Ad oggi non sappiamo come produciamo buona parte della conoscenza umana. Prendiamo come esempio un compito che oggi è alla portata dell’intelligenza artificiale: il riconoscimento facciale. A meno che io non soffra di qualche grave disturbo neurologico, riconosco immediatamente i miei familiari. Ma come siamo in grado di farlo? Nel dettaglio, non lo sappiamo ancora. I neuroscienziati hanno formulato teorie e compiuto osservazioni con le tecniche di brain imaging, ma non conoscono fino in fondo come funziona il processo. Però in qualche modo noi abbiamo imparato a farlo. E oggi anche i computer hanno imparato, e forse possiamo dire più in dettaglio come lo fanno loro di come lo facciamo davvero noi. È il contrario quindi di quanto sostiene Weinberger. Direi che è più la nostra intelligenza ad essere aliena, che non quella dei computer. Ma il punto interessante che emerge dalle sue riflessioni secondo me è un altro. Forse nel futuro quando faremo scienza non cercheremo più di trovare leggi di natura come la legge di Newton, ma inseriremo dati nelle macchine per far loro produrre le previsioni che ci interessano, senza formulare alcuna legge. Ma a me quest’idea che potremmo abbandonare un sistema di conoscenza scientifica esplicita sembra molto improbabile. La scienza ha avuto un enorme successo per più di cinque secoli nello scoprire leggi di natura, e non credo che smetteremo presto. Siamo di fronte a scenari di crescente complessità, è vero, ma che gli esseri umani sono ancora in grado di decifrare. Non sarei così pessimista sulla nostra capacità di conoscere la natura.
Negli ultimi anni ha dedicato la sua attenzione alla medicina e prossimamente pubblicherà un libro su causalità, probabilità e medicina. Quando si tratta di definire la medicina, spesso si ricorre a definizioni un po’ sbrigative come “un misto di scienza e arte”. Certamente però la medicina ha sempre avuto uno statuto diverso rispetto alle scienze dure. Come potrebbe cambiare con l’uso dell’intelligenza artificiale?
Già negli anni novanta avevano iniziato ad affacciarsi i primi programmi per la diagnosi automatizzata. Ancora oggi non mi S pare che siano così diffusi. Tuttavia mi auguro che prendano presto piede, perché credo che sarebbe importante per ridurre il numero di errori umani commessi nelle diagnosi. Questo non significa che i medici potranno essere sostituiti un giorno dalle macchine, ma semplicemente avranno a disposizione nuovi e potenti strumenti che apriranno nuove questioni in medicina. Dobbiamo tenere a mente una distinzione fondamentale: la medicina teorica è l’insieme di tutte le leggi causali scoperte dai ricercatori a partire dal XIX secolo quando si comprese per esempio che la tubercolosi era provocata da un bacillo. La medicina pratica invece si avvicina all’arte quando deve applicarsi al caso singolo e confrontarsi con la variabilità individuale. Fino a che punto devi tenere conto delle sue specificità o puoi trattarlo come un paziente standard? Penso che questa tensione tra le due dimensioni della medicina durerà ancora a lungo.
Negli ultimi tempi i toni con cui si parla di intelligenza artificiale si stanno facendo sempre più cupi, tra le analisi sui posti di lavoro a rischio e gli allarmi di Stephen Hawking e Elon Musk su un’evoluzione incontrollata. Alla fine del suo libro scriveva: “i progressi nell’intelligenza artificiale potranno più probabilmente stimolare il pensiero che non renderlo superfluo”. Lo pensa ancora oggi?
Non capisco perché sono tutti così pessimisti. Naturalmente ogni tecnologia, e l’intelligenza artificiale non fa eccezione, può essere usata per fini malvagi, per esempio nella messa a punto di armi più micidiali. Però non credo che sia una buona idea tornare indietro. La tecnologia arricchisce e rende migliori le nostre vite. Dovremmo piuttosto pensare a strumenti di controllo per i possibili usi negativi. L’idea che l’evoluzione dell’intelligenza artificiale non ci lascerà scampo è francamente ridicola.
A cura di Marco Motta, giornalista scientifico, Radio 3 Scienza
- Gillies D. Intelligenza artificiale e metodo scientifico. Milano: Cortina, 1997.