Intelligenza artificiale Interviste

Un mondo governato dagli algoritmi

Dalla rivoluzione industriale alla rivoluzione digitale. L’impatto sulla società dei progressi nelle capacità intellettuali delle macchine.

Intervista a Andrea Prencipe

Prorettore vicario, Professore di innovation management Università Luiss “Guido Carli”, Roma

By Dicembre 2017Luglio 31st, 2020No Comments

Intelligenza artificiale: prima ancora di chiederci di cosa parliamo, come definiremmo l’intelligenza?

Una domanda a cui è difficile dare una risposta. Sebbene manchi una definizione univoca e condivisa dall’accademia internazionale sulla definizione dell’intelligenza, quando parliamo di intelligenza ci riferiamo a quella funzione mentale di riflettere, pensare, comprendere e apprendere da cui può scaturire un’azione. Il termine “intelligenza” dovrebbe derivare dalla contrazione latina tra “intu” e “legere”, cioè “leggere dentro”. Quindi l’intelligenza è forma di ragionamento che sviluppa una comprensione della realtà più profonda e completa e scopre le connessioni tra i vari aspetti della realtà stessa. Un fenomeno di certo complesso e multidimensionale. Lo psicologo Howard Gardner teorizza che l’intelligenza si manifesta in più dimensioni e che ne esistono almeno sette diverse tipologie: l’intelligenza logico-matematica, quella linguistica, spaziale, musicale, cinestetica o procedurale, interpersonale e intrapersonale. Un altro aspetto che mi preme sottolineare è la dimensione dinamica: una parte dell’intelligenza, cosiddetta innata, è determinata geneticamente, mentre un’altra si sviluppa dall’interazione con l’ambiente esterno e quindi con tutto ciò che ha a che fare con l’educazione. Ed è attraverso quest’ultima che l’intelligenza si traduce in intelligenza funzionale, da un qualcosa che è potenziale a un qualcosa attuale. Su questa falsariga possiamo riflettere sul concetto di intelligenza artificiale quale forma di ragionamento che pertiene a qualcosa di inumano – il computer – e che non segue necessariamente le stesse dinamiche e caratteristiche dell’intelligenza umana.

L’intelligenza artificiale quale forma di ragionamento che pertiene a qualcosa di inumano e che non segue necessariamente le stesse dinamiche e caratteristiche dell’intelligenza umana.

Un tempo il sapere collettivo si fondava sull’archiviazione attiva di dati che implementavano i cosiddetti “sistemi esperti” allo scopo di rendere più ampiamente disponibile il sapere e le competenze frutto del ragionamento: cos’è cambiato con l’avvento dei big data?

Sicuramente c’è stato un cambio di paradigma rispetto ai sistemi esperti che, per quanto facessero leva comunque sulla tecnologia informatica, si basavano su un approccio distinto e lontano rispetto a ciò che contraddistingue l’attuale rivoluzione digitale. Il sistema esperto ha una caratterizzazione molto chiara e precisa che si fonda su due pilastri: le basi di conoscenza e le regole di inferenza. Le basi di conoscenza altro non sono che fatti, regole e relazioni su uno specifico ambito di interesse “estratti” dall’intelligenza di un esperto umano e rappresentati con dei simboli; mentre le regole di inferenza descrivono come manipolare questi simboli e quindi le basi di conoscenze. L’apprendimento in questi sistemi avviene quindi ex ante per sviluppare i simboli e le regole che da ultimo saranno assemblati e usati per l’applicazione prefissata. Per definizione, i sistemi esperti sono fortemente specializzati e specifici di un dominio, tant’è che necessitano dell’acquisizione e incorporazione nei programmi informativi delle conoscenze e competenze di un esperto che vengono codificate. Per questa loro specificità hanno un’applicazione importante ma verticale. Con il progresso dei computer, in termini di memoria e capacità computazionale, e l’esplosione di dati in formato digitale è cambiato l’approccio nell’incorporare le competenze e nella loro analisi attraverso i programmi informatici. Negli anni ottanta si avevano a disposizione dati di archivio, cartacei o, per l’appunto, estratti dagli esperti, e non l’immensa base di dati in formato digitale oggi fruibile che rappresenta il primo pilastro del machine learning. Il secondo pilastro è la capacità computazionale del computer che permette a questi sistemi di “apprendere”. Nel machine learning, a differenza dei sistemi esperti, non c’è una regola di inferenza prestabilita ma piuttosto la capacità di derivare da questa mole immensa di dati dei pattern a partire dai quali la macchina fa esperienza e apprende automaticamente. Definire e identificare questa forma di computazione e identificazione di pattern come intelligenza è sicuramente corretto. Non è detto però che segua lo stesso approccio del sistema mentale proprio dell’intelligenza naturale dell’uomo.

Come guidare il futuro delle persone e delle aziende in previsione dei progressi nelle capacità intellettuali e fisiche delle macchine?

Sicuramente si rende necessaria una riflessione rispetto a quelle che possono e devono essere le competenze di noi esseri umani nell’utilizzo dei sistemi digitali e di machine learning, ormai pervasivi e che sempre più diventeranno fondamentali per qualsiasi tipo di professione. Un primo punto centrale è l’acquisizione dei digital skill per la loro gestione. È ormai impensabile non essere degli esperti digitali o di non essere almeno a conoscenza delle potenzialità della rivoluzione digitale affinché questa possa essere “piegata” e utilizzata rispetto a quelli che sono i nostri fini. Di conseguenza, è opportuno tener presente che sempre di più conviene delegare attività, mansioni e task a sistemi digitali, senza però dimenticare che è importante evitare la cosiddetta deresponsabilizzazione. Serve mantenere un minimo di responsabilità rispetto alla gestione di questi sistemi.

Sempre di più conviene delegare attività e mansioni a sistemi digitali. Ma è importante evitare la cosiddetta deresponsabilizzazione.

In un mondo governato dagli algoritmi, quali cambiamenti possiamo aspettarci riguardo all’organizzazione delle imprese e del sistema economico?

Per capire gli effetti della rivoluzione digitale in corso servono almeno due livelli di analisi. Un primo livello che analizza la ridefinizione dei confini dei settori industriali e la loro classificazione. Con la digitalizzazione le imprese fanno riferimento o si relazionano ad altre imprese e organizzazioni che in una classificazione precedente non le vedevano parte di uno stesso settore industriale. Ne deriva che la dimensione dei settori industriali viene sostituita dagli ecosistemi. Una seconda analisi è a livello micro, sull’organizzazione delle imprese. La rivoluzione digitale sta infatti ridefinendo i confini aziendali così come quelli settoriali appena descritti, tant’è che si parla di impresa aperta e conseguentemente di innovazione aperta (open innovation). Per governare i processi innovativi e per essere competitive, le imprese devono necessariamente far riferimento sempre di più a un numero di partner importanti, e ovviamente il supporto digitale diventa fondamentale. La digitalizzazione interviene anche nei processi di gestione dei clienti e nella modalità con cui relazionarsi. Questi diversi impatti descritti costringono le imprese a riconsiderare la propria organizzazione e i processi operativi in funzione di quella che è la rivoluzione digitale.

L’ingresso dell’intelligenza artificiale ruberà posti di lavoro o viceversa ne creerà di nuovi? Quali settori/professioni sono più a rischio di perdere posti di lavoro?

Non vi è dubbio che la trasformazione digitale creerà nuove professioni e allo stesso tempo eroderà il perimetro delle professioni tradizionali così come finora intese ed espletate dagli esseri umani. Ma questo è valso per tutte le rivoluzioni tecnologiche passate cui abbiamo assistito e in qualche modo gestito. A partire da quella industriale ogni rivoluzione è stata socioantropologica oltre che tecnologica. Molte delle invenzioni sono andate ben oltre il loro scopo circoscritto originario. Per esempio chi ha inventato l’energia elettrica o la macchina al vapore non immaginava che ne sarebbe scaturito un nuovo sistema industriale. Allo stesso modo l’innovazione digitale sta modificando il tessuto socioantropologico: la tecnologia informatica è ormai parte integrante del lavoro e del nostro tempo libero e sta cambiando il modo di vivere degli esseri umani sia a livello personale che, soprattutto, a livello di organizzazione di impresa.

Questa pervasività della digitalizzazione nasconde dei pericoli? Come correre ai ripari?

La digitalizzazione è diventata pervasiva perché si è modificato il rapporto uomo-macchina. Fino agli anni ottanta gli investimenti delle imprese in tecnologie informatiche non avevano mai avuto un impatto importante sulla produttività delle stesse imprese. Tra i policy maker che si facevano carico delle politiche industriali dei vari paesi era comune riferirsi al paradosso della produttività: nonostante investimenti importanti da parte delle imprese nell’information technology questi non si traducevano in una crescita della produttività. La ragione andava ricercata nell’uomo che, oltre a essere lento nei processi di cambiamento, non era ancora pronto ad adottare e a sfruttare al meglio le tecnologie informatiche. La pervasività della tecnologia informatica ha abbattuto questa barriera tanto da trasformare il rapporto uomo-macchina in una relazione uomo-macchina. Oggi l’uomo convive con la tecnologia informatica e sempre di più si fida di essa. Sicuramente questa relazione di simbiosi avrà dei risvolti positivi, come per esempio il superamento del paradosso della produttività, ma anche negativi quali le problematiche sulle disuguaglianze di reddito e quelli sulla privacy e security. Rispetto a quest’ultima è stata sviluppata una disciplina ad hoc, la cyber security, finalizzata a identificare dei sistemi che permettano di essere più protetti rispetto ad attacchi cibernetici. In generale, la nostra attenzione deve essere rivolta alla valutazione dei possibili effetti controproducenti e allo sviluppo di sistemi che evitino che la tecnologia informatica diventi pervasiva e negativa. È una questione di responsabilità.

La pervasività della tecnologia informatica ha trasformato il rapporto uomo-macchina in una relazione uomo-macchina.

Il potere degli algoritmi

Le due culture – quella informatica e quella del medico – devono lavorare insieme. La frase chiave dell’articolo di Abraham Verghese, Nigam H. Shah e Robert A. Harrington, uscito sul JAMA del 2 gennaio 2018, sembra un’ovvietà. A parte in qualche film di fantascienza non particolarmente riuscito, nessuno pensa che la nostra salute possa davvero e del tutto essere affidata alle decisioni di un computer. Come nessuno, d’altra parte, può ormai ritenere che la clinica possa fare a meno del supporto che può giungere già oggi da una gestione intelligente di dati attendibili. La viewpoint dei tre autori della Stanford university è uno dei tantissimi contributi pubblicati negli ultimi mesi in tema di intelligenza artificiale, di machine learning e delle loro applicazioni in ambito sanitario. Quasi tutti sottolineano la centralità della qualità delle informazioni che le “macchine” dovrebbero capitalizzare e l’impossibilità di rinunciare a una componente decisionale umana, nel momento delle scelte che contano. Per quanto possa apparire estremista, uno dei limiti della maggior parte di queste analisi è che sono firmate da persone umane.

Antropocentriche, al punto di non riuscire a immaginare una realtà in cui – per esempio – il controllo di qualità dei dati sarà affidato alla macchina stessa, dal momento che nessun filtro umano sarà previsto tra la generazione dei “numeri”, la loro elaborazione e le decisioni assunte o proposte. Quelli che leggiamo sono commenti preoccupati: per una volta, anche il medico diventa pessimista, lui che – rispetto al computer – è invariabilmente più ottimista quando si tratta di prevedere l’aspettativa di vita di un malato o l’esito di una cura. Dalle macchine potremmo attenderci quell’equilibrio che troppe volte condiziona le nostre scelte. Quell’equilibrio che fortunatamente è il filo conduttore delle dieci regole per una saggia intelligenza artificiale proposte da Enrico Coiera su Twitter (#AImedia). Evitare le esagerazioni, fare attenzione ai conflitti di interesse di chi si dichiara entusiasta del machine learning, non accontentarsi di una prima esperienza di successo, preoccuparsi dell’ultimo miglio”, quello in cui il prodotto dovrà essere utilizzato nel mondo reale, ma anche del “primo miglio”, quello in cui tutto viene impostato.

  • Verghese A, Shah NH, Harrington RA. What this computer needs is a physician. JAMA 2018;319:19.

Il machine learning è pop. Il grafico confronta la popolarità su scala globale del machine learning, dell’artificial intelligence e dei big data negli ultimi sei anni misurata con Google trends. A maggio del 2017 la parola “machine learning” ha superato quella “big data” in termini di numero di ricerche effettuate dagli utenti online nel mondo. Negli Usa il sorpasso è avvenuto sette mesi prima.

Lascia un commento