• Background Image

    Cosa aspettarci

19 gennaio 2018

Cosa aspettarci

Mandare il futuro della giusta direzioneIntervista a Luciano Floridi
Le conseguenze nefaste dell’autonomia degli algoritmiDavide Bennato
Menti aliene? Sono le nostreIntervista a Donald Gillies

Mandate il futuro nella giusta direzione

Una possibile trasformazione è nelle nostre mani. Ma la strada da percorrere è in salita

Intervista a Luciano Floridi, filosofo, professore ordinario di filosofia e etica dell’informazione University of Oxford

l titolo del romanzo di Philip Dick Ma gli androidi sognano pecore elettriche? pone una serie di domande riguardo l’intelligenza artificiale: cos’è la coscienza? Un robot potrà mai sognare? E pensare?

Questo genere di domande chiama in causa una consapevolezza che non siamo in grado di comprendere del tutto. È un problema che ci portiamo dietro fin dal tempo dei greci: non sappiamo molto di questa nostra vita mentale, di questa nostra peculiare coscienza. Chiedersi se le macchine potranno diventare coscienti significa chiedersi qualcosa a cui non possiamo dare una risposta che non sia speculativa. È come interrogarsi sulla natura di un oggetto che non si conosce.

È impossibile rispondere senza cadere nell’antropomorfismo o in una semplice proiezione. Finiremmo per fare discorsi alla Hollywood, ci inventeremmo il signor Data di Star Trek o altri robot consapevoli, che sanno di cosa parlano e riescono a gestire il significato o l’intenzionalità. Ma poiché non comprendiamo le stesse domande, forse è meglio dare una non risposta. Non si tratta di un modo filosofico per uscire dai guai ma piuttosto di chiedersi: queste domande hanno veramente senso? Ecco, io temo che non ce l’abbiano.

La capacità di porre domande “aperte”, così come lei le intende, è destinata a rimanere una prerogativa umana?

Fino a quando avremo la tecnologia e la scienza di cui disponiamo oggi, sì, sarà una prerogativa umana. L’ipotesi che si possa un giorno inventare qualcosa di assolutamente straordinario, di non prevedibile, è una forma di speculazione. La coscienza, le domande aperte e la consapevolezza sono aspetti destinati esclusivamente a forme evolute di intelligenza biologica e, nello specifico, a quella forma di intelligenza biologica che è propria degli esseri umani. Non ce l’hanno neanche i cani, quindi lasciamo stare i robot.

Sono giustificabili le preoccupazioni relative alla diffusione di agenti autonomi, in grado di apprendere da soli?

Sono preoccupazioni che vanno chiarite: non sono ingiustificate, ma mal dirette. Perché riguardano un mondo fantascientifico dove questi agenti sono del tutto autonomi, consapevoli, hanno piani di azione e intenzionalità. Ma queste sono fantasie da Hollywood. Le preoccupazioni serie sono altre: che cosa ne faremo, noi, di queste tecnologie? Saremo in grado di utilizzarle per scopi benefici, per costruire un mondo migliore o le useremo per sfruttare altri esseri umani, per arricchirci sempre più, e sempre più in minoranza? I governi utilizzeranno l’intelligenza artificiale per dare più potere ai cittadini o per controllarli? Le aziende saranno in grado di ottimizzare la produzione, curandosi di avere un impatto positivo sulla società, o perseguiranno solo il profitto a scapito dell’ambiente e della vivibilità delle nostre città? Questi sono problemi seri. Le preoccupazioni devono esserci, quindi, ma devono essere indirizzate verso le questioni, reali e pressanti, che riguardano la cosiddetta “governance” dell’intelligenza artificiale e, in senso più ampio, del digitale. Il resto è una distrazione irresponsabile.

Le preoccupazioni devono esserci. Ma devono essere indirizzate verso la cosiddetta “governance” dell’intelligenza artificiale e, in senso più ampio, del digitale.

L’economista Joseph Schumpeter definiva “distruzione creatrice” la trasformazione che avviene sotto la spinta di grandi innovazioni. Ritiene che anche l’intelligenza artificiale porterà a una “distruzione creativa”?

Penso proprio di sì. Nel caso dell’intelligenza artificiale è però utile fare una distinzione tra intensità e velocità dell’impatto. L’intensità è davanti agli occhi di tutti: ogni giorno una nuova statistica prevede il numero di posti di lavoro che saranno distrutti, ricreati, trasformati. Quello che mi preoccupa di più non è però tanto l’intensità dell’impatto, quanto la sua velocità. Tali trasformazioni non sono soltanto capillari e distribuite in settori molteplici, ma anche repentine. Pochi anni fa vivevamo in un mondo dove il digitale non esisteva. Un mondo in cui la televisione era analogica, le automobili non avevano un singolo bit digitale al loro interno, non c’erano telefonini. Il passaggio da quella società a quella attuale è stato talmente veloce e radicale da rendere l’intelligenza artificiale soltanto un ulteriore cambio di marcia nell’ambito di una trasformazione già di per sé straordinaria. Tra le due variabili – intensità e velocità – quella più dirompente è quindi la velocità. Se l’intensità fosse “sciolta” nell’arco di un secolo o due, invece che di un decennio o due, avremmo tempo di adattarci, di aggiornare le nostre competenze e l’educazione che forniamo alle nuove generazioni. Io stesso mi trovo a offrire posti da postdottorato, qui a Oxford, e a ricevere domande da candidati che non hanno le giuste competenze. E vale anche nel business: le persone valide vanno a ruba e passano da un’azienda all’altra. In questo contesto, come in molti altri, è la velocità a essere traumatica.

In che modo la società dovrebbe rispondere, quindi, alla repentinità di questa trasformazione?

Non è pensabile che un mondo che si trasforma così velocemente non generi delle misure di salvaguardia per le generazioni che, toccate poco dai vantaggi dell’intelligenza artificiale e del digitale, ne subiranno soprattutto i danni. È ingiusto. Per questo sono favorevole a misure di tipo sociale, come gli ammortizzatori, che aiutino ad adattarsi più velocemente, o a sopravvivere, a un impatto che sarà brutale. Pensiamo a un cinquantenne che si trova oggi a perdere il lavoro: per questa persona, che ha un certo genere di competenze, sarà difficilissimo trovare un nuovo impiego soddisfacente quanto quello precedente. La società deve farsi carico di queste situazioni.

È possibile invece che l’ambiente che accoglierà l’intelligenza artificiale si sia evoluto, nel frattempo, in modo tale da risultare preparato a questa trasformazione?

Su questo sono un po’ scettico. Recentemente è uscito uno studio della McKinsey secondo il quale fi no a 800 milioni di lavoratori potrebbero essere sostituiti dall’automazione nei prossimi 13 anni. Personalmente rispetto molto questi studi ma non scordiamoci che, trattandosi di ricerche riguardanti il futuro, si tratta sempre di proiezioni. Dal mio punto di vista ci sono due fattori fondamentali che andrebbero considerati e che vengono invece spesso ignorati. Il primo è l’inerzia: più i sistemi sono complessi e più questa è pervasiva. Un conto è cambiare le cose alla lavagna, un altro è farlo davvero. Possono mancare le motivazioni, le risorse, la voglia. Un’analisi sulla distribuzione dei fax in Gran Bretagna, per esempio, ha evidenziato che nell’industria questo strumento viene ancora ampiamente usato. Se non abbiamo ancora “pensionato” il fax, quanto ci vorrà prima di sostituire il segretario con un robot? Il secondo è l’accettabilità etica e legislativa del cambiamento. Ogni grande innovazione deve essere assorbita dalla società: se questa è reticente serve più tempo, bisogna convincere le persone, va fatto un passo indietro ogni due fatti in avanti. Qualche tempo fa è uscito uno studio dell’University of Oxford – di cui ha parlato anche l’Economist – che si chiedeva: quale sarà l’impatto dell’automazione sul mercato del lavoro americano? Un diagramma mostrava un grande quantitativo di lavori destinati a sparire. Tra questi, per esempio, il guidatore di taxi, minacciato dall’arrivo delle auto driverless. Lo studio tuttavia non valutava gli aspetti normativi della questione, che è un po’ come fare le previsioni del tempo senza considerare i venti. È più facile, certo, ma anche del tutto irrilevante. Quanti treni viaggiano da Milano a Roma senza guidatore? Zero, perché la legge non lo permette. Sarà diverso con gli autobus? Io ho i miei dubbi.

Cosa cambia quando fattori quali l’inerzia o l’accettabilità a livello normativo vengono invece presi in considerazione?

Le proiezioni della McKinsey diventano irrealistiche. Non sto dicendo che siano fatte male, ma che sono discutibili le assunzioni di partenza. C’è un bello studio fatto dal Ministero dei trasporti finlandese che ha ripreso il lavoro fatto dai colleghi di Oxford, considerando però il ruolo potenziale della normativa dell’Unione europea. Il diagramma che ne risulta è completamente diverso: invece di avere una sella a U, è a zig-zag. Questo perché con tali premesse ogni speculazione è libera: per esempio si potrebbe decidere di mettere tre piloti su ogni aereo, invece di due, anche se questo potrebbe teoricamente viaggiare in modo autonomo. In un contesto del genere chiedersi quale sarà l’impatto dell’intelligenza artificiale sul mondo del lavoro, ma anche sulla società in generale, significa speculare su cose di cui non abbiamo un’idea chiara. Che l’impatto sarà enorme lo sanno tutti, ma in quali termini, in quali settori e con quali ricadute resta una questione aperta. Per questo bisogna ricordarsi che è possibile far andare le cose nella direzione giusta, dipende da che tipo di società vogliamo costruire. La storia non si basa su leggi naturali immutabili e prevedibili come la fisica, ma su decisioni umane di cui siamo responsabili. È necessario chiedersi: che genere di politica del digitale vogliamo avere in Italia? E in Europa? Questo tipo di riflessione socio-politica è tanto necessaria, quanto assente. Stiamo subendo la trasformazione del digitale, una delle più grandi nella storia dell’uomo, senza un vero dibattito politico a riguardo.

È possibile far andare le cose nella direzione giusta, dipende da che tipo di società vogliamo costruire.

Roy Amara, cofondatore dell’Institute for the future di Palo Alto, affermava che “tendiamo a sopravvalutare gli effetti a breve termine della tecnologia e a sottovalutare quelli a lungo termine”. Una massima applicabile anche all’intelligenza artificiale?

Dico di sì, ed è sempre così, soprattutto per le tecnologie che hanno un impatto immediato. Perché questo impatto è visibile subito, mentre ciò che succederà da qui a dieci, venti o cinquanta anni lo trascuriamo, ce ne disinteressiamo. Quando forse è l’aspetto più importante. Si pensi alla rivoluzione che ha portato al motore a scoppio, all’automobile, alla creazione delle grandi città, al pendolarismo, all’inquinamento. Quando Ford costruiva la sua prima vettura, stava pensando a tutto questo? No, perché c’erano altre questioni, altre trasformazioni. Tuttavia, quello che rattrista di più non è tanto che questo avvenga, ma che la consapevolezza di ciò non faccia la differenza. È come se una persona, dopo aver spiegato più volte che una cosa funziona in un determinato modo, si sentisse rispondere sempre: “Ah, che bello, non l’avevo mai sentito”.

Fonte: Frey CB, Osborne MA. The future of employment: how susceptible are jobs to computerisation? University of Oxford, 17 settembre 2013.

Nell’ambito della ricerca biomedica sull’intelligenza artificiale, nuove sfide sono poste dai big data. Quali lezioni si possono trarre da esperienze passate di etica applicata?

Per semplificare, ci sono due lezioni: una positiva e una negativa. Quella positiva è che noi possiamo cambiare il corso della ricerca. La nostra generazione può avere una notevole influenza su ciò che potrà essere fatto con l’intelligenza artificiale nel campo della ricerca medica. Qui a Oxford, per esempio, stiamo lavorando a un progetto, finanziato dalla Microsoft, che guarda alla possibilità di donare i propri dati al momento della morte, in modo simile a quanto avviene per gli organi. Questo è un piccolo esempio di una possibile trasformazione che è nelle nostre mani. La lezione negativa, invece, è che purtroppo le grandi trasformazioni nel corso della storia sono avvenute dopo grandi disastri. Prima ci sono i grilli parlanti – come il sottoscritto – ai quali nessuno dà retta, poi si arriva a una tragedia, come una guerra mondiale o un’esplosione nucleare, che spaventa la gente e stimola la ricerca di strade alternative. C’è una grande differenza, infatti, tra il rinunciare a qualcosa che si potrebbe avere e il perdere qualcosa che già si aveva. In questo senso sono un po’ pessimista: temo che, nonostante tutte le indicazioni, le raccomandazioni, le ricerche, finiremo per cambiare strada soltanto dopo che qualcosa di veramente negativo sarà effettivamente accaduto.

Quale cammino deve percorrere la scienza medica affinché si possa costruire un sistema sociosanitario più rispettoso dell’umanità e dei suoi desideri?

Ci siamo illusi che l’illuminismo fosse arrivato e l’oscurantismo sparito. Invece lo stato della conoscenza nel nostro paese, così come in Europa, è disastroso. Dall’Eurobarometro emerge che nella considerazione dei cittadini europei l’astrologia arriva prima dell’economia; metà della popolazione pensa che si tratti di una scienza. In questo contesto, è necessario che la medicina metta in atto un lavoro di educazione costante, senza abbassare mai la guardia. Il primo aspetto, quindi, è l’educazione. Il secondo, invece, riguarda la dignità umana, che deve restare a fondamento della medicina come ricerca e cura. Non nel senso di “human flourishing”, cioè di quanto si possa migliorare la situazione umana, ma proprio di dignità, di cose che è bene fare e non fare a un essere umano, evitando la tendenza ad assumere un certo utilitarismo. La dignità umana, fondamento della dichiarazione dei diritti universali dell’uomo, è e resta il punto centrale di tutta l’etica medica, tanto più in un contesto in cui i dati possono essere molto sensibili e l’individuo tipizzato, trasformato in un numero. Noi abbiamo l’opportunità, oggi, di fare ciò che la medicina ha sempre voluto fare: “sartorializzare” la cura sull’individuo. Ciò comporta dei rischi che vanno costantemente evitati o minimizzati. Credo che si possa essere ottimisti ma c’è tanto lavoro da fare. Spesso si pensa che l’innovazione sia una sorta di ruota che gira per conto suo, un sasso che rotola a valle, quando invece non c’è niente di automatico in tutto questo. Per mandare il futuro nella direzione giusta serve uno sforzo concreto e sociale, quasi sempre in salita.

dicembre 2017


Le conseguenze nefaste dell’autonomia degli algoritmi

La vita autonoma degli algoritmi tra opportunità straordinarie e rischi inattesi

Davide Bennato, professore di sociologia dei media digitali, Università di Catania

La vita quotidiana ai tempi del XXI secolo è sicuramente dominata dall’uso delle tecnologie digitali. Le usiamo per lavorare (software professionali), per divertirci (piattaforme di intrattenimento come Netflix), per gestire le relazioni con altre persone (social media, da Facebook a Instagram). Da un punto di vista generale, questa situazione non è particolarmente diversa da altri periodi storici: sicuramente il boom è avvenuto con la rivoluzione industriale, quando le macchine sono diventate parte integrante del panorama storico del XVII secolo. Da lì in poi la tecnologia ha avuto un ruolo di primo piano ed è penetrata in ogni aspetto del mondo moderno.

Di cosa hanno bisogno gli algoritmi?

A ben vedere, in questi primi anni del duemila la tecnologia – che da analogica è diventata digitale – è un po’ diversa da altri sistemi tecnologici che hanno caratterizzato le epoche passate e questa diversità sta negli algoritmi. Gli algoritmi sono procedure informatiche che hanno lo scopo di guidare il software nello svolgimento delle sue attività. La lavatrice che modifica il suo ciclo di lavaggio quando deve lavare capi delicati, il navigatore satellitare che ci dice qual è la via più breve del nostro viaggio, la piattaforma social che ci mostra i contenuti prodotti e condivisi dalla nostra rete di contatti: sono tutti esempi di funzioni svolte da algoritmi, procedure digitali che consentono al software di funzionare nel miglior modo possibile. C’è una caratteristica che rende gli algoritmi così strategici nella vita contemporanea: gli algoritmi sono autonomi, ovvero non hanno bisogno di nient’altro che una serie di operazioni da compiere e un insieme di dati in base ai quali svolgere le funzioni per cui sono stati progettati. Detto in maniera molto semplificata: gli algoritmi decidono in autonomia come interagire a seconda del tipo di informazioni che raccolgono e che li caratterizzano. La lavatrice decide quale ciclo di lavaggio utilizzare a seconda del capo che deve lavare, il navigatore decide quale strada percorrere a seconda delle strade e del traffico, la piattaforma social decide quale contenuto mostrarci a seconda della nostra rete di contatti. In pratica gli algoritmi sono strumenti decisionali autonomi che svolgono il loro compito seguendo specifiche regole.

Il governo degli algoritmi

Quali sono queste regole? La risposta a questa domanda rappresenta il punto di forza e il punto di debolezza degli algoritmi. Le regole che seguono gli algoritmi alcune volte sono regole matematiche se il settore in cui operano è stato modellizzato: è un principio matematico in base al quale il navigatore valuta qual è la strada più breve fra due punti geografi ci. Ma quando il settore non è stato modellizzato con strumenti matematici, spesso le regole seguite dagli algoritmi sono quelle del suo programmatore e, in quanto tali, non sono regole scientificamente fondate, ma sono principi arbitrari e – spesso – soggettivi [1]. La piattaforma social che ci mostra i contenuti della nostra rete di contatti parte dal presupposto che noi vogliamo vedere i contenuti dei profili con cui interagiamo più spesso. Ma questa affermazione è vera fi no a un certo punto: io di alcune persone voglio vedere i contenuti perché mi interessano le persone; di altre persone voglio vedere i contenuti perché mi interessano i contenuti. Ma questo l’algoritmo non lo sa. Per l’algoritmo vale solo l’interazione: se io non interagisco con un profilo, non importa che questo profilo condivida contenuti interessantissimi, a poco a poco questa persona smetterà di essere visibile nella mia rete di contatti e io lo dimenticherò. Chi ha deciso tutto questo? L’algoritmo di ottimizzazione dei contenuti del social: in una parola, l’ha deciso Facebook. In pratica Facebook non è uno strumento matematico di visualizzazione dei contenuti della nostra rete di contatti, bensì uno strumento ideologico di condivisione di contenuti dei profili in cui l’interazione è più frequente. Questo accade perché per Facebook “amico” vuol dire “profilo con cui interagiamo più spesso” e questa definizione di amicizia si applica solo in alcuni specifici casi alle persone con cui condividiamo un rapporto. Se questo vale per una cosa così semplice come i contenuti che vediamo su Facebook, questo può valere anche per altri casi? Assolutamente sì.

Spesso le regole che gli algoritmi seguono sono quelle del suo programmatore e in quanto tali non sono regole scientificamente fondate, ma sono principi arbitrari e – spesso – soggettivi.

Le conseguenze (in)attese

Molti studiosi stanno cercando di capire quali sono le conseguenze reali di algoritmi progettati male, ideologici o semplicemente dalle conseguenze impreviste [2]. Un libro recente che affronta questo tema è Armi di distruzione matematica di Cathy O’Neill, in cui l’autrice, da studiosa di big data e computer science, propone uno strumento di valutazione a quattro livelli per capire le conseguenze inattese, spesso nefaste degli algoritmi [3].

Il primo livello potremmo definirlo “conseguenze negative come proprietà emergenti”, e avviene quando gli algoritmi manifestano errori in maniera non intenzionale a causa della loro programmazione. Caso emblematico quello di Google AdWords che suggeriva inserzioni pubblicitarie di consulenza legale se gli utenti che cercavano informazioni erano persone di colore, ipotizzando così che, se sei nero e cerchi informazioni legali, probabilmente hai problemi con la giustizia [4]. Gli algoritmi del secondo livello hanno conseguenze nefaste a causa di una programmazione superficiale. È questo il caso del sistema di autotagging della app di Google in cui per la foto di due persone di colore veniva suggerito Modifi cato da “Inside the algorithm that tries to predict gun violence in Chicago”, The New York Times, 13 giugno 2017. il tag “gorilla”. Al terzo livello ci sono gli algoritmi sicuramente antipatici ma comunque legali: è il caso di PredPol, il software in dotazione della polizia di Los Angeles in grado di prevedere i reati sulla base di una analisi dei big data dei crimini precedenti, in puro stile Minority Report [5]. Infine, all’ultimo livello, ci sono gli algoritmi programmati con scopi intenzionalmente nefasti, spesso legati al controllo e alla sorveglianza, come il progetto Sesame Credit del governo cinese, un sistema in cui, a partire dalle piattaforme digitali come WeChat o Baidu, si raccolgono i dati sui cittadini che producono un punteggio su quanto le persone siano dei bravi cittadini. Esiste poi tutta una famiglia di conseguenze nefaste legate al fatto che gli algoritmi basati sul machine learning – termine contemporaneo che definisce l’intelligenza artificiale – sono in grado di apprendere dal contesto in cui si trovano.

Fuori controllo

Ma cosa succede quando il loro contesto di riferimento è palesemente negativo? La risposta a questa domanda l’hanno data rapidamente i programmatori della Microsoft quando in tutta fretta hanno dovuto terminare il loro progetto di chatbot perché la situazione era diventata piuttosto ingestibile. In pratica, per testare il proprio sistema di intelligenza artificiale la Microsoft ha messo online su Twitter Tay, un chatbot – ovvero un software automatico in grado di interagire – che imparava dalle domande che venivano poste dagli altri utenti. Forse per scherzare, forse per semplice trolling, gli utenti cominciarono a fare domande sempre più politicamente scorrette, fino a far diventare Tay la prima intelligenza artificiale razzista, negazionista dell’Olocausto, sostenitrice dell’uso politico del genocidio e in genere aggressiva con ogni forma di minoranza [6].

Questa è una delle palesi conseguenze negative delle tecnologie autonome: spesso evolvono verso forme di autonomia che nessuno vorrebbe. In sintesi, bisogna prendere sempre più sul serio l’idea che gli algoritmi non sono solo delle tecnologie, ma sono dei soggetti autonomi che svolgono un ruolo attivo nella società in cui viviamo e questo ruolo ha delle conseguenze sulla società e sugli individui che non sempre sono positive o auspicabili. Poco importa se per errori di programmazione, proprietà emergenti, decisioni eticamente discutibili o interazione in ambienti socialmente e ideologicamente violenti, gli algoritmi sono ormai elementi alla base della vita quotidiana del XXI secolo e bisogna cominciare a studiare le loro conseguenze, soprattutto se inattese.

Tay ha impiegato solo 16 ore per diventare un software dotato di un linguaggio violento e aggressivo. Cosa sarebbe accaduto se non fosse stato semplicemente un sistema per chiacchierare ma se – poniamo – fosse stato il sistema operativo di un robot come si stanno sviluppando negli ultimi tempi? Chi vorrebbe interagire con una tecnologia autonoma, antropomorfa e razzista?

Bibliografia

[1] Bennato D. Il computer come macroscopio. Big data e approccio computazionale per comprendere i cambiamenti sociali e culturali. Milano: Franco Angeli, 2015.
[2] Cardon D. Che cosa sognano gli algoritmi. Le nostre vite al tempo dei big data. Milano: Mondadori, 2016.
[3] O’Neill C. Armi di distruzione matematica. Milano: Bompiani, 2017.
[4] Racism is poisoning online Ad delivery, says Harvard professor. MIT Technology Review, 4 febbraio 2013.
[5] Berg N. Predicting crime, LAPD-style. The Guardian, 25 giugno 2014.
[6] Bright P. Tay, the neo-Nazi millennial chatbot, gets autopsied. Ars Techinica, 26 marzo 2016.

Ragionevoli dubbi.Per individuare le aree a più alta probabilità di sparatorie la polizia di Chicago utilizza l’algoritmo Strategic Subject List che misura i fattori di rischio. Tuttavia le analisi sono discordanti rispetto alla percezione comune e ad alcuni commenti della polizia: infatti, essere stati già coinvolti in una sparatoria è un fattore di rischio più importante di essere vittima o autore di una sparatoria (+34) e dell’affiliazione ad una gang (+4). Per valutare correttamente l’affidabilità di Strategic Subject List, sarebbe necessario conoscere i dettagli con cui vengono calcolate le probabilità di rischio, informazioni però non note perché l’algoritmo si basa su una tecnologia proprietaria. Le valutazioni del rischio qui a fi anco sono state elaborate da un lavoro del New York Times sulla base dei dati resi disponibili dalla polizia di Chicago: attraverso una semplice analisi statistica è deducibile la base logica dell’algoritmo. Il problema nasce dall’uso di uno strumento tecnologico che guida le decisioni su come dovrebbero agire le forze di polizia, senza poter valutare la bontà della strategia decisionale adottata.

dicembre 2017


Menti aliene? Sono le nostre

Conosciamo meglio l’intelligenza artificiale dei nostri processi di conoscenza

Intervista a Donald Gillies, professore emerito di filosofia della scienza e della matematica, University college London

Sono passati vent’anni dalla pubblicazione del suo libro Intelligenza artificiale e metodo scientifico, che è stato anticipatore degli interrogativi e delle riflessioni che lo sviluppo dell’intelligenza artificiale ha sollevato negli ultimi anni. Un arco di tempo che separa anche due eventi simbolo del confronto tra intelligenza umana e artificiale, le sfide tra Deep Blue e Kasparov e AlphaGo contro Sedol. Si è parlato di un passaggio dalla semplice potenza bruta di calcolo allo sviluppo, con il deep learning, di facoltà proprie di un’intelligenza umana quale l’intuizione. Siamo di fronte a una svolta anche da un punto di vista filosofico?

Quando ho cominciato a interessarmi all’intelligenza artificiale negli anni ottanta, scoprii che molte delle questioni di filosofia della scienza che erano state al centro dei miei interessi – i fondamenti della teoria della probabilità e della statistica e la filosofia della logica – erano al cuore dello sviluppo dell’intelligenza artificiale. Lo strumento principale allora era, e rimane ancora oggi, il machine learning, programmare macchine perché compiano induzioni. Tu inserisci dati e loro producono leggi, regole e predizioni a partire da quei dati. Ci tengo a precisare che in questi anni non ho seguito nel dettaglio gli avanzamenti del machine learning. Tuttavia la mia impressione è che, certo, gli algoritmi sono migliorati parecchio, la potenza di calcolo dei computer è aumentata, i programmi riescono a fare molto più cose e molto meglio di vent’anni fa, ma non ho visto l’introduzione di idee nuove che abbiano modificato in modo radicale il quadro da un punto di vista filosofico. Lei ha citato il deep learning, che è un’evoluzione delle reti neurali che rappresentavano uno degli approcci principali dell’intelligenza artificiale già negli anni novanta. Per quanto ne so, il deep learning ha introdotto algoritmi di ordine superiore per le reti neurali, ma non concetti nuovi nell’intelligenza artificiale.

Il suo collega David Weinberger parla di menti aliene che creano modelli di interpretazione della realtà in modo autonomo, e avverte che noi non siamo più in grado di capire il loro modo di ragionare. Si può dire che lo statuto della conoscenza scientifica stessa sta cambiando?

Non sono d’accordo con quello che dice Weinberger, e penso che commetta degli errori da un punto di vista filosofico. Il problema principale sta in una distinzione fondamentale: conoscere come (knowing how, la conoscenza pratica) e conoscere cosa (knowing that, la conoscenza teorica). Per fare un esempio, un calciatore esperto sa benissimo come trattare il pallone in modo da fare goal, ma se gli chiedi come lo fa non te lo saprà dire. Con la pratica, l’apprendimento empirico sa come farlo, ma la conoscenza teorica è un’altra cosa. Weinberger su questa distinzione è molto confuso. Ad oggi non sappiamo come produciamo buona parte della conoscenza umana. Prendiamo come esempio un compito che oggi è alla portata dell’intelligenza artificiale: il riconoscimento facciale. A meno che io non soffra di qualche grave disturbo neurologico, riconosco immediatamente i miei familiari. Ma come siamo in grado di farlo? Nel dettaglio, non lo sappiamo ancora. I neuroscienziati hanno formulato teorie e compiuto osservazioni con le tecniche di brain imaging, ma non conoscono fi no in fondo come funziona il processo. Però in qualche modo noi abbiamo imparato a farlo. E oggi anche i computer hanno imparato, e forse possiamo dire più in dettaglio come lo fanno loro di come lo facciamo davvero noi. È il contrario quindi di quanto sostiene Weinberger. Direi che è più la nostra intelligenza ad essere aliena, che non quella dei computer. Ma il punto interessante che emerge dalle sue riflessioni secondo me è un altro. Forse nel futuro quando faremo scienza non cercheremo più di trovare leggi di natura come la legge di Newton, ma inseriremo dati nelle macchine per far loro produrre le previsioni che ci interessano, senza formulare alcuna legge. Ma a me quest’idea che potremmo abbandonare un sistema di conoscenza scientifica esplicita sembra molto improbabile. La scienza ha avuto un enorme successo per più di cinque secoli nello scoprire leggi di natura, e non credo che smetteremo presto. Siamo di fronte a scenari di crescente complessità, è vero, ma che gli esseri umani sono ancora in grado di decifrare. Non sarei così pessimista sulla nostra capacità di conoscere la natura.

Negli ultimi anni ha dedicato la sua attenzione alla medicina e prossimamente pubblicherà un libro su causalità, probabilità e medicina. Quando si tratta di definire la medicina, spesso si ricorre a definizioni un po’ sbrigative come “un misto di scienza e arte”. Certamente però la medicina ha sempre avuto uno statuto diverso rispetto alle scienze dure. Come potrebbe cambiare con l’uso dell’intelligenza artificiale?

Già negli anni novanta avevano iniziato ad affacciarsi i primi programmi per la diagnosi automatizzata. Ancora oggi non mi S pare che siano così diffusi. Tuttavia mi auguro che prendano presto piede, perché credo che sarebbe importante per ridurre il numero di errori umani commessi nelle diagnosi. Questo non significa che i medici potranno essere sostituiti un giorno dalle macchine, ma semplicemente avranno a disposizione nuovi e potenti strumenti che apriranno nuove questioni in medicina. Dobbiamo tenere a mente una distinzione fondamentale: la medicina teorica è l’insieme di tutte le leggi causali scoperte dai ricercatori a partire dal XIX secolo quando si comprese per esempio che la tubercolosi era provocata da un bacillo. La medicina pratica invece si avvicina all’arte quando deve applicarsi al caso singolo e confrontarsi con la variabilità individuale. Fino a che punto devi tenere conto delle sue specificità o puoi trattarlo come un paziente standard? Penso che questa tensione tra le due dimensioni della medicina durerà ancora a lungo.

Negli ultimi tempi i toni con cui si parla di intelligenza artificiale si stanno facendo sempre più cupi, tra le analisi sui posti di lavoro a rischio e gli allarmi di Stephen Hawking e Elon Musk su un’evoluzione incontrollata. Alla fine del suo libro scriveva: “i progressi nell’intelligenza artificiale potranno più probabilmente stimolare il pensiero che non renderlo superfluo”. Lo pensa ancora oggi?

Non capisco perché sono tutti così pessimisti. Naturalmente ogni tecnologia, e l’intelligenza artificiale non fa eccezione, può essere usata per fini malvagi, per esempio nella messa a punto di armi più micidiali. Però non credo che sia una buona idea tornare indietro. La tecnologia arricchisce e rende migliori le nostre vite. Dovremmo piuttosto pensare a strumenti di controllo per i possibili usi negativi. L’idea che l’evoluzione dell’intelligenza artificiale non ci lascerà scampo è francamente ridicola.

A cura di Marco Motta, giornalista scientifico, Radio 3 Scienza

  • Gillies D. Intelligenza artificiale e metodo scientifico. Milano: Cortina, 1997.

dicembre 2017

0 Comments

Leave A Comment

Lascia un commento

Iscriviti alla newsletter di Forward

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

Pin It on Pinterest

Share This