Intelligenza artificiale Interviste

Mandare il futuro della giusta direzione

Una possibile trasformazione è nelle nostre mani. Ma la strada da percorrere è in salita.

Intervista a Luciano Floridi

Filosofo, professore ordinario di filosofia e etica dell’informazione University of Oxford

By Dicembre 2017Luglio 31st, 2020No Comments

l titolo del romanzo di Philip Dick Ma gli androidi sognano pecore elettriche? pone una serie di domande riguardo l’intelligenza artificiale: cos’è la coscienza? Un robot potrà mai sognare? E pensare?

Questo genere di domande chiama in causa una consapevolezza che non siamo in grado di comprendere del tutto. È un problema che ci portiamo dietro fin dal tempo dei greci: non sappiamo molto di questa nostra vita mentale, di questa nostra peculiare coscienza. Chiedersi se le macchine potranno diventare coscienti significa chiedersi qualcosa a cui non possiamo dare una risposta che non sia speculativa. È come interrogarsi sulla natura di un oggetto che non si conosce.

È impossibile rispondere senza cadere nell’antropomorfismo o in una semplice proiezione. Finiremmo per fare discorsi alla Hollywood, ci inventeremmo il signor Data di Star Trek o altri robot consapevoli, che sanno di cosa parlano e riescono a gestire il significato o l’intenzionalità. Ma poiché non comprendiamo le stesse domande, forse è meglio dare una non risposta. Non si tratta di un modo filosofico per uscire dai guai ma piuttosto di chiedersi: queste domande hanno veramente senso? Ecco, io temo che non ce l’abbiano.

La capacità di porre domande “aperte”, così come lei le intende, è destinata a rimanere una prerogativa umana?

Fino a quando avremo la tecnologia e la scienza di cui disponiamo oggi, sì, sarà una prerogativa umana. L’ipotesi che si possa un giorno inventare qualcosa di assolutamente straordinario, di non prevedibile, è una forma di speculazione. La coscienza, le domande aperte e la consapevolezza sono aspetti destinati esclusivamente a forme evolute di intelligenza biologica e, nello specifico, a quella forma di intelligenza biologica che è propria degli esseri umani. Non ce l’hanno neanche i cani, quindi lasciamo stare i robot.

Sono giustificabili le preoccupazioni relative alla diffusione di agenti autonomi, in grado di apprendere da soli?

Sono preoccupazioni che vanno chiarite: non sono ingiustificate, ma mal dirette. Perché riguardano un mondo fantascientifico dove questi agenti sono del tutto autonomi, consapevoli, hanno piani di azione e intenzionalità. Ma queste sono fantasie da Hollywood. Le preoccupazioni serie sono altre: che cosa ne faremo, noi, di queste tecnologie? Saremo in grado di utilizzarle per scopi benefici, per costruire un mondo migliore o le useremo per sfruttare altri esseri umani, per arricchirci sempre più, e sempre più in minoranza? I governi utilizzeranno l’intelligenza artificiale per dare più potere ai cittadini o per controllarli? Le aziende saranno in grado di ottimizzare la produzione, curandosi di avere un impatto positivo sulla società, o perseguiranno solo il profitto a scapito dell’ambiente e della vivibilità delle nostre città? Questi sono problemi seri. Le preoccupazioni devono esserci, quindi, ma devono essere indirizzate verso le questioni, reali e pressanti, che riguardano la cosiddetta “governance” dell’intelligenza artificiale e, in senso più ampio, del digitale. Il resto è una distrazione irresponsabile.

Le preoccupazioni devono esserci. Ma devono essere indirizzate verso la cosiddetta “governance” dell’intelligenza artificiale e, in senso più ampio, del digitale.

L’economista Joseph Schumpeter definiva “distruzione creatrice” la trasformazione che avviene sotto la spinta di grandi innovazioni. Ritiene che anche l’intelligenza artificiale porterà a una “distruzione creativa”?

Penso proprio di sì. Nel caso dell’intelligenza artificiale è però utile fare una distinzione tra intensità e velocità dell’impatto. L’intensità è davanti agli occhi di tutti: ogni giorno una nuova statistica prevede il numero di posti di lavoro che saranno distrutti, ricreati, trasformati. Quello che mi preoccupa di più non è però tanto l’intensità dell’impatto, quanto la sua velocità. Tali trasformazioni non sono soltanto capillari e distribuite in settori molteplici, ma anche repentine. Pochi anni fa vivevamo in un mondo dove il digitale non esisteva. Un mondo in cui la televisione era analogica, le automobili non avevano un singolo bit digitale al loro interno, non c’erano telefonini. Il passaggio da quella società a quella attuale è stato talmente veloce e radicale da rendere l’intelligenza artificiale soltanto un ulteriore cambio di marcia nell’ambito di una trasformazione già di per sé straordinaria. Tra le due variabili – intensità e velocità – quella più dirompente è quindi la velocità. Se l’intensità fosse “sciolta” nell’arco di un secolo o due, invece che di un decennio o due, avremmo tempo di adattarci, di aggiornare le nostre competenze e l’educazione che forniamo alle nuove generazioni. Io stesso mi trovo a offrire posti da postdottorato, qui a Oxford, e a ricevere domande da candidati che non hanno le giuste competenze. E vale anche nel business: le persone valide vanno a ruba e passano da un’azienda all’altra. In questo contesto, come in molti altri, è la velocità a essere traumatica.

In che modo la società dovrebbe rispondere, quindi, alla repentinità di questa trasformazione?

Non è pensabile che un mondo che si trasforma così velocemente non generi delle misure di salvaguardia per le generazioni che, toccate poco dai vantaggi dell’intelligenza artificiale e del digitale, ne subiranno soprattutto i danni. È ingiusto. Per questo sono favorevole a misure di tipo sociale, come gli ammortizzatori, che aiutino ad adattarsi più velocemente, o a sopravvivere, a un impatto che sarà brutale. Pensiamo a un cinquantenne che si trova oggi a perdere il lavoro: per questa persona, che ha un certo genere di competenze, sarà difficilissimo trovare un nuovo impiego soddisfacente quanto quello precedente. La società deve farsi carico di queste situazioni.

È possibile invece che l’ambiente che accoglierà l’intelligenza artificiale si sia evoluto, nel frattempo, in modo tale da risultare preparato a questa trasformazione?

Su questo sono un po’ scettico. Recentemente è uscito uno studio della McKinsey secondo il quale fino a 800 milioni di lavoratori potrebbero essere sostituiti dall’automazione nei prossimi 13 anni. Personalmente rispetto molto questi studi ma non scordiamoci che, trattandosi di ricerche riguardanti il futuro, si tratta sempre di proiezioni. Dal mio punto di vista ci sono due fattori fondamentali che andrebbero considerati e che vengono invece spesso ignorati. Il primo è l’inerzia: più i sistemi sono complessi e più questa è pervasiva. Un conto è cambiare le cose alla lavagna, un altro è farlo davvero. Possono mancare le motivazioni, le risorse, la voglia. Un’analisi sulla distribuzione dei fax in Gran Bretagna, per esempio, ha evidenziato che nell’industria questo strumento viene ancora ampiamente usato. Se non abbiamo ancora “pensionato” il fax, quanto ci vorrà prima di sostituire il segretario con un robot? Il secondo è l’accettabilità etica e legislativa del cambiamento. Ogni grande innovazione deve essere assorbita dalla società: se questa è reticente serve più tempo, bisogna convincere le persone, va fatto un passo indietro ogni due fatti in avanti. Qualche tempo fa è uscito uno studio dell’University of Oxford – di cui ha parlato anche l’Economist – che si chiedeva: quale sarà l’impatto dell’automazione sul mercato del lavoro americano? Un diagramma mostrava un grande quantitativo di lavori destinati a sparire. Tra questi, per esempio, il guidatore di taxi, minacciato dall’arrivo delle auto driverless. Lo studio tuttavia non valutava gli aspetti normativi della questione, che è un po’ come fare le previsioni del tempo senza considerare i venti. È più facile, certo, ma anche del tutto irrilevante. Quanti treni viaggiano da Milano a Roma senza guidatore? Zero, perché la legge non lo permette. Sarà diverso con gli autobus? Io ho i miei dubbi.

Cosa cambia quando fattori quali l’inerzia o l’accettabilità a livello normativo vengono invece presi in considerazione?

Le proiezioni della McKinsey diventano irrealistiche. Non sto dicendo che siano fatte male, ma che sono discutibili le assunzioni di partenza. C’è un bello studio fatto dal Ministero dei trasporti finlandese che ha ripreso il lavoro fatto dai colleghi di Oxford, considerando però il ruolo potenziale della normativa dell’Unione europea. Il diagramma che ne risulta è completamente diverso: invece di avere una sella a U, è a zig-zag. Questo perché con tali premesse ogni speculazione è libera: per esempio si potrebbe decidere di mettere tre piloti su ogni aereo, invece di due, anche se questo potrebbe teoricamente viaggiare in modo autonomo. In un contesto del genere chiedersi quale sarà l’impatto dell’intelligenza artificiale sul mondo del lavoro, ma anche sulla società in generale, significa speculare su cose di cui non abbiamo un’idea chiara. Che l’impatto sarà enorme lo sanno tutti, ma in quali termini, in quali settori e con quali ricadute resta una questione aperta. Per questo bisogna ricordarsi che è possibile far andare le cose nella direzione giusta, dipende da che tipo di società vogliamo costruire. La storia non si basa su leggi naturali immutabili e prevedibili come la fisica, ma su decisioni umane di cui siamo responsabili. È necessario chiedersi: che genere di politica del digitale vogliamo avere in Italia? E in Europa? Questo tipo di riflessione socio-politica è tanto necessaria, quanto assente. Stiamo subendo la trasformazione del digitale, una delle più grandi nella storia dell’uomo, senza un vero dibattito politico a riguardo.

È possibile far andare le cose nella direzione giusta, dipende da che tipo di società vogliamo costruire.

Roy Amara, cofondatore dell’Institute for the future di Palo Alto, affermava che “tendiamo a sopravvalutare gli effetti a breve termine della tecnologia e a sottovalutare quelli a lungo termine”. Una massima applicabile anche all’intelligenza artificiale?

Dico di sì, ed è sempre così, soprattutto per le tecnologie che hanno un impatto immediato. Perché questo impatto è visibile subito, mentre ciò che succederà da qui a dieci, venti o cinquanta anni lo trascuriamo, ce ne disinteressiamo. Quando forse è l’aspetto più importante. Si pensi alla rivoluzione che ha portato al motore a scoppio, all’automobile, alla creazione delle grandi città, al pendolarismo, all’inquinamento. Quando Ford costruiva la sua prima vettura, stava pensando a tutto questo? No, perché c’erano altre questioni, altre trasformazioni. Tuttavia, quello che rattrista di più non è tanto che questo avvenga, ma che la consapevolezza di ciò non faccia la differenza. È come se una persona, dopo aver spiegato più volte che una cosa funziona in un determinato modo, si sentisse rispondere sempre: “Ah, che bello, non l’avevo mai sentito”.

Fonte: Frey CB, Osborne MA. The future of employment: how susceptible are jobs to computerisation? University of Oxford, 17 settembre 2013.

Nell’ambito della ricerca biomedica sull’intelligenza artificiale, nuove sfide sono poste dai big data. Quali lezioni si possono trarre da esperienze passate di etica applicata?

Per semplificare, ci sono due lezioni: una positiva e una negativa. Quella positiva è che noi possiamo cambiare il corso della ricerca. La nostra generazione può avere una notevole influenza su ciò che potrà essere fatto con l’intelligenza artificiale nel campo della ricerca medica. Qui a Oxford, per esempio, stiamo lavorando a un progetto, finanziato dalla Microsoft, che guarda alla possibilità di donare i propri dati al momento della morte, in modo simile a quanto avviene per gli organi. Questo è un piccolo esempio di una possibile trasformazione che è nelle nostre mani. La lezione negativa, invece, è che purtroppo le grandi trasformazioni nel corso della storia sono avvenute dopo grandi disastri. Prima ci sono i grilli parlanti – come il sottoscritto – ai quali nessuno dà retta, poi si arriva a una tragedia, come una guerra mondiale o un’esplosione nucleare, che spaventa la gente e stimola la ricerca di strade alternative. C’è una grande differenza, infatti, tra il rinunciare a qualcosa che si potrebbe avere e il perdere qualcosa che già si aveva. In questo senso sono un po’ pessimista: temo che, nonostante tutte le indicazioni, le raccomandazioni, le ricerche, finiremo per cambiare strada soltanto dopo che qualcosa di veramente negativo sarà effettivamente accaduto.

Quale cammino deve percorrere la scienza medica affinché si possa costruire un sistema sociosanitario più rispettoso dell’umanità e dei suoi desideri?

Ci siamo illusi che l’illuminismo fosse arrivato e l’oscurantismo sparito. Invece lo stato della conoscenza nel nostro paese, così come in Europa, è disastroso. Dall’Eurobarometro emerge che nella considerazione dei cittadini europei l’astrologia arriva prima dell’economia; metà della popolazione pensa che si tratti di una scienza. In questo contesto, è necessario che la medicina metta in atto un lavoro di educazione costante, senza abbassare mai la guardia. Il primo aspetto, quindi, è l’educazione. Il secondo, invece, riguarda la dignità umana, che deve restare a fondamento della medicina come ricerca e cura. Non nel senso di “human flourishing”, cioè di quanto si possa migliorare la situazione umana, ma proprio di dignità, di cose che è bene fare e non fare a un essere umano, evitando la tendenza ad assumere un certo utilitarismo. La dignità umana, fondamento della dichiarazione dei diritti universali dell’uomo, è e resta il punto centrale di tutta l’etica medica, tanto più in un contesto in cui i dati possono essere molto sensibili e l’individuo tipizzato, trasformato in un numero. Noi abbiamo l’opportunità, oggi, di fare ciò che la medicina ha sempre voluto fare: “sartorializzare” la cura sull’individuo. Ciò comporta dei rischi che vanno costantemente evitati o minimizzati. Credo che si possa essere ottimisti ma c’è tanto lavoro da fare. Spesso si pensa che l’innovazione sia una sorta di ruota che gira per conto suo, un sasso che rotola a valle, quando invece non c’è niente di automatico in tutto questo. Per mandare il futuro nella direzione giusta serve uno sforzo concreto e sociale, quasi sempre in salita.

 

Lascia un commento