• Background Image

    Di che cosa parliamo

19 gennaio 2018

Di che cosa parliamo

La sapienza artificiale
Di che cosa parliamo quando parliamo di intelligenza artificialeJerry Kaplan
Un mondo governato dagli algoritmiIntervista a Andrea Prencipe

La sapienza artificiale

Alla finestra su un panorama sconosciuto e seduttivo

L’inevitabile. Il titolo dell’ultimo libro di Kevin Kelly ha valore di manifesto. “Stiamo marciando consapevolmente verso la salda connessione di tutti gli esseri umani e di tutte le macchine in una matrice globale. Questa matrice non è un artefatto ma è un processo. Il nostro nuovo supernetwork è un’ondata di cambiamento che sforna costantemente nuovi modi di soddisfare i nostri bisogni e desideri. I prodotti, i marchi e le aziende che ci circondano da trent’anni sono completamente imprevedibili. (…) La direzione generale di questo processo è chiara e inconfondibile”: in estrema sintesi (stiamo pur sempre leggendo un libro di 300 pagine) il protagonista di questa radicale disruption è l’intelligenza artificiale. Anzi, precisa Kelly: “quello che vogliamo non è intelligenza consapevole, bensì saggezza artificiale”. Intelligentemente (è il caso di dire) il cofondatore della rivista Wired non si avventura in previsioni precise: anzi, descrive con pennellate astratte un domani futurista completamente differente dalla realtà attuale. Può accadere di tutto, insomma, ma nulla sarà come prima, fi no a una quotidianità interpretata e vissuta da “una mente che utilizza l’informatica quantistica, la cui logica non siamo in grado di comprendere”.

Stiamo alla finestra davanti a un panorama sconosciuto e terribilmente seduttivo nella misura in cui la ricerca di un apporto dall’intelligenza artificiale o, ancor di più, dal machine learning porterà quasi inevitabilmente alla rinuncia di qualche abilità o competenza che siamo abituati a ritenere esclusivamente umana. Sbagliavamo nel pensare di essere invincibili a scacchi, e il tempo per istruire un avversario capace di sconfiggere il campione più esperto si riduce ogni mese e non ci potremo stupire quando scopriremo essere diventato istantaneo. Eravamo ugualmente presuntuosi nel ritenere l’interpretazione diagnostica una prerogativa del clinico più competente e in molti indicano il radiologo in una professione in via d’estinzione: sarà una macchina a leggere l’imaging. O anche no, sarà semplicemente (semplicemente?) qualcosa di completamente diverso, la cui forma sarebbe più giusto dire che non possiamo neanche immaginare.

Facciamo un po’ di tenerezza nel prefigurare l’avvento dell’intelligenza artificiale nel robot un po’ bassino, con sembianze umane, che qualcuno pensa possa a breve sostituire il portiere d’albergo: preparato in ogni lingua, è aggiornatissimo su itinerari cittadini, orari di musei, menu e prezzi di ristoranti e posti per l’aperitivo. Questa è l’intelligenza artificiale che ci rassicura: d’accordo, ma è probabilmente solo la prima e forse meno impegnativa tappa di un percorso tanto insidioso quanto esposto a rischi che ancora non conosciamo. Un futuro che abbiamo iniziato a intravedere quando DeepMind ha insegnato a una intelligenza artificiale non a “giocare” a Video Pinball, ma a “imparare a giocare” a cose come Video Pinball.

Un futuro denso di aspettative, dunque, ma anche di preoccupazioni soprattutto se le pensiamo applicate alla salute. Alcune molto concrete: competenze meno necessarie e professioni da ridisegnare, qualità dei dati come presupposto di un machine learning che abbia senso, una società che sia capace di una governance dell’innovazione tale da mettere in sicurezza le persone esposte al cambiamento. Su altre inquietudini, invece, siamo smarriti: a certe domande impossibili è meglio dare una non risposta, suggerisce Luciano Floridi. Sono gli interrogativi che ci rivolge l’intelligenza artificiale “forte”, quella di cui parlano Enrico Coiera, Maureen Baker e Farah Magrabi rispetto ai quali siamo disarmati. La sola cosa che possiamo tentare è davvero provare a non far danni.

dicembre 2017


Di che cosa parliamo quando parliamo di intelligenza artificiale

Per ora ci sono poche ragioni per credere che abbia molto in comune con l’intelligenza umana

Jerry Kaplan, fellow del Center for legal informatics, professore di storia e filosofia dell’intelligenza artificiale, Dipartimento di computer science, Stanford university

Che cos’è l’intelligenza artificiale? Sono state proposte molte definizioni di intelligenza artificiale, ognuna espressione di un diverso punto di vista, ma tutte più o meno allineate sul concetto di creare programmi informatici o macchine capaci di comportamenti che riterremmo intelligenti se messi in atto da esseri umani. Nel 1955 John McCarthy, uno dei padri fondatori della disciplina, descriveva il processo come “consistente nel far sì che una macchina si comporti in modi che sarebbero definiti intelligenti se fosse un essere umano a comportarsi così” [1].

Questo approccio apparentemente ragionato alla caratterizzazione dell’intelligenza artificiale è in realtà profondamente difettoso. Consideriamo, ad esempio, la difficoltà del definire, e ancor di più del misurare, l’intelligenza umana. La nostra predilezione culturale per ridurre le cose a misurazioni numeriche che facilitano i paragoni diretti crea spesso una falsa patina di oggettività e precisione, e i tentativi di quantificare qualcosa tanto soggettivo e astratto come l’intelligenza rientra chiaramente in questa categoria. Il quoziente di intelligenza della piccola Sally è sette punti più alto di quello di Johnny? Vi prego, trovate un qualsiasi altro modo più equo di decidere a chi spetta quell’ultimo, prezioso posto all’asilo nido. Per non fare che un esempio dei tentativi di accantonare questa eccessiva semplificazione, pensate al controverso quadro fornito dallo psicologo dello sviluppo Howard Gardner, che propone una teoria dell’intelligenza a otto dimensioni, da quella “musicale-ritmica” a quella “naturalistica”, passando per quella “cinetico-corporale” [2].

Nondimeno, ha senso dire che una persona è più intelligente di un’altra, almeno nell’ambito di molti contesti. Esistono peraltro determinati indicatori di intelligenza che sono ampiamente accettati e altamente correlati con indicatori di altro tipo. Per esempio, quanto velocemente e precisamente gli studenti sono in grado di fare addizioni e sottrazioni è ampiamente utilizzato come modo di misurare le abilità logiche e quantitative, per non dire l’attenzione al dettaglio. Ma è sensato applicare questo standard a una macchina? Una calcolatrice da un dollaro è capace di battere a mani basse qualsiasi essere umano in questo esercizio – persino senza avere le mani. Prima della seconda guerra mondiale un “calcolatore” era un professionista qualificato, di solito di sesso femminile – fatto interessante – dal momento che si riteneva che le donne fossero capaci di eseguire questo compito in modo più meticoloso e attento degli uomini. La velocità di calcolo è dunque un indicatore del fatto che le macchine possiedono un’intelligenza superiore? Ovviamente no.

A complicare il compito di mettere a confronto l’intelligenza umana e quella delle macchine c’è il fatto che la maggior parte dei ricercatori nel campo dell’intelligenza artificiale sarebbe d’accordo nel dire che come affronti il problema è più importante che se lo risolvi. Per capire perché, provate a immaginare un semplice programma per computer pensato per il gioco del tris, quello in cui i giocatori inseriscono delle X e delle O in una griglia tre-per-tre finché uno dei due non riesce a mettere tre simboli uguali in fila, in colonna o in diagonale (o, in alternativa, finché tutti gli spazi non sono occupati, nel qual caso la partita è pari).

Esistono esattamente 255.168 possibili esiti di una partita a tris, e nell’odierno mondo dei computer è relativamente semplice generare tutte le possibili sequenze di gioco, segnare quelle vincenti e giocare la partita perfetta semplicemente effettuando ogni mossa sulle basi di una tabella. Tuttavia, molti non accetterebbero di definire un programma così semplice “dotato di intelligenza artificiale”. Immaginate ora di adottare un approccio diverso: un programma privo di nozioni preconcette relative alle regole del gioco, che osserva gli esseri umani e non impara soltanto cosa significa vincere ma quali sono le strategie più efficaci per farlo. Potrebbe ad esempio imparare che, ogni qualvolta un giocatore riesce a mettere due simboli uguali in fila, l’altro dovrebbe sempre bloccare il completamento del tris, oppure che se si riescono a occupare tre angoli della griglia lasciando tra di essi degli spazi vuoti, di solito questo si traduce in una vittoria. La maggior parte degli osservatori direbbe che questo programma è artificialmente intelligente, soprattutto perché è stato capace di acquisire l’abilità necessaria senza ricevere alcuna guida o istruzione.

Ora, non tutti i giochi né, tantomeno, tutti i problemi interessanti possono essere risolti per enumerazione come succede con il tris. Nel gioco degli scacchi, per dare un’idea, sono possibili circa 10120 partite uniche, vale a dire molte più del totale degli atomi presenti nell’universo [3]. Si può quindi dire che buona parte della ricerca nel campo dell’intelligenza artificiale non sia altro che un tentativo di trovare soluzioni accettabili a problemi che non possono essere soggetti a un’analisi definitiva o a enumerazione per tutta una serie di ragioni teoriche e pratiche. Eppure, questa caratterizzazione non è di per sé sufficiente: molti metodi statistici soddisfano questo criterio pur non avendo niente a che fare con l’intelligenza artificiale.

Esiste tuttavia una equivalenza non intuitiva, eppure reale, tra lo scegliere una risposta da un’immensa proliferazione di possibilità e arrivare alla stessa servendosi di analisi e creatività. Questo paradosso può essere formulato per mezzo della famosa storiella secondo la quale un numero sufficiente di scimmie che digita a caso su un numero sufficiente di tastiere finirà per comporre le opere complete di Shakespeare. In un contesto più moderno, ogni possibile performance musicale di una lunghezza data può essere rappresentata come un singolo file MP3mp3 facente parte di una collezione finita. Saper scegliere quel preciso file musicale dalla lista è forse un atto creativo equivalente all’averlo registrato? Non è di certo la stessa cosa, ma forse si tratta di due capacità entrambe meritevoli della stessa ammirazione.

Quando valutiamo l’abilità degli studenti nel fare le addizioni, non teniamo conto di come hanno svolto il lavoro – presumiamo cioè che abbiano usato solo il cervello con cui sono nati e gli strumenti necessari, come carta e penna. Perché, allora, la cosa diventa rilevante se il soggetto da testare è una macchina? Questo accade perché diamo per scontato che un essere umano che svolge questo compito stia usando determinate abilità innate o apprese che possono in linea di principio essere applicate a una vasta gamma di problemi paragonabili. Se tuttavia è una macchina ad avere le stesse abilità, o superiori, siamo restii a convincerci che stia accadendo qualcosa di analogo.

C’è anche un altro problema nell’uso delle capacità umane come metro di giudizio per l’intelligenza artificiale: le macchine sono capaci di svolgere numerosi compiti del tutto impossibili per le persone, e molti di questi compiti di certo somigliano a dimostrazioni di intelligenza. Un programma di sicurezza è capace di sospettare un attacco informatico sulla base di sequenze di richieste accesso dati insolite in un arco di appena cinquecento millisecondi. Un sistema di allerta tsunami potrebbe far suonare l’allarme sulla base di impercettibili mutazioni nelle altezze oceaniche che rispecchiano complessi sommovimenti geologici sottomarini. Un programma pensato per la scoperta di nuovi farmaci riesce a mettere a punto una nuova ricetta dopo aver scoperto una particolare sequenza di accordi molecolari mai notata prima in composti di trattamento contro il cancro rivelatisi efficaci. Il comportamento di sistemi di questo tipo, destinati a diventare sempre più comuni in futuro, non si presta in realtà a paragoni con le capacità umane. Tuttavia, siamo soliti considerare questi sistemi “artificialmente intelligenti”. (…)

Il punto non è se consideriamo queste macchine dotate di consapevolezza o meno, se le rispettiamo come nuove forme di vita o le riteniamo semplici elettrodomestici intelligenti. Il fatto è che, verosimilmente, esse giocheranno un ruolo sempre più critico e profondo in molti aspetti delle nostre vite.

Ma l’intelligenza artificiale è una vera scienza?

(…) La mia opinione personale sul significato dell’intelligenza artificiale è la seguente: l’essenza dell’intelligenza artificiale – in effetti, l’essenza dell’intelligenza – è la capacità di fare generalizzazioni appropriate in modo tempestivo e su una base dati limitata. Tanto più è vasto il campo di applicazione, tanto più rapidamente vengono tratte le conclusioni con informazioni minime, tanto più intelligente è il comportamento osservato. Se lo stesso programma che impara il tris è capace di imparare qualsiasi gioco da tavolo, tanto meglio. Se riuscisse anche a riconoscere le facce, a diagnosticare le condizioni mediche e a comporre musica nello stile di Bach, credo saremmo tutti d’accordo nel considerarlo artificialmente intelligente (si noti che esistono oggi singoli programmi che riescono a eseguire in modo accettabile ciascuno di questi compiti), e sarebbe irrilevante se lo facesse nello stesso modo degli esseri umani o se apparisse cosciente di sé tanto quanto le persone.

Un elemento importante per fare buone generalizzazioni è considerare il più ampio contesto disponibile. Quando decidete di evitare un particolare percorso in auto perché spesso è trafficato, oggi è un giorno di festa, c’è bel tempo e quel percorso è il più semplice per arrivare alla spiaggia, state operando una generalizzazione di questo tipo. Quando il vostro software di gestione della posta elettronica suggerisce di aggiungere una conference call al vostro calendario sulla base del testo di una email che avete ricevuto, adattando l’orario dal momento che chi l’ha mandata vive in un diverso fuso orario, e interpretando le parole “martedì prossimo” nel senso di “tra otto giorni” e non “domani”, e collegando la voce di calendario al contatto del mittente  nella vostra rubrica, per vostra comodità, si sta cimentando in un simile processo di generalizzazione sulla base di informazioni da fonti multiple. Quando lo stesso programma smette di fare suggerimenti del genere perché li rifiutate sempre, sta ancora generalizzando sulla base del contesto. Infatti, l’apprendimento può essere visto come un processo di esecuzione di generalizzazioni cronologicamente sequenziali che tiene conto delle esperienze precedenti nelle analisi future, proprio come ragionare per analogia significa usare conoscenza proveniente da un determinato campo come un nuovo contesto per mezzo del quale generalizzare riguardo a un altro. A volte, quando si affrontano nuove sfide, bisogna spingersi piuttosto in là prima di riuscire a orientarsi, ma se si procede con giudizio i risultati possono essere in effetti molto intelligenti. Indizi interessanti suggeriscono che un contesto allargato potrebbe essere la base della nostra stessa coscienza, come vedremo più avanti. Forse è l’ampiezza la culla dell’intelligenza.

Tanti ricercatori sono impegnati nel compito di sondare le profondità della mente umana, o a lambirne la superficie, studiando nel dettaglio la struttura del cervello, in parte al fine di svelare il modo in cui svolgiamo i più notevoli compiti cognitivi. Il mistero che si trovano ad affrontare riguarda il come sia mai possibile che unità biologiche relativamente regolari e uniformi – i neuroni – possano, tramite le loro interconnessioni, svolgere imprese tanto diverse tra loro come immagazzinare ricordi, elaborare informazioni visive, controllare i nostri corpi, produrre emozioni, guidare il nostro comportamento e generare la percezione qualitativa di noi stessi. Per quanto inesplicabile ciò possa sembrare, questo è quel che accade. Chi può dire, allora, che un programma, altrettanto semplice, al paragone, non possa fare lo stesso se solo dotato di libertà d’azione su risorse informatiche e input sufficienti? Questo significa che, d’un tratto, computer dotati di intelligenza artificiale “diventeranno vivi” come si vede spesso nei film?

In un mondo umano avremo bisogno di robot civilizzati.

Testo estratto dal libro
Jerry Kaplan.
Intelligenza artifi ciale –
Guida al futuro prossimo.
Roma: LUISS University
Press, 2017.

Respirate pure: dal momento che ho passato gran parte della mia vita ad aggirarmi nei più segreti recessi di programmi di intelligenza artificiale sempre più sofisticati, posso dire di non aver mai notato il benché minimo indizio del fatto che siamo davvero diretti a questo, almeno non nell’immediato futuro. È più probabile che i compiti che riteniamo abbiano bisogno dell’ingegno umano siano in realtà più suscettibili di automazione di quanto avremmo mai osato credere. Forse l’intelligenza intesa come concetto coerente, soggetto ad analisi formale, misurazione e duplicazione, è solo un’illusione.

L’intelligenza artificiale non è forse una scienza dura nel senso in cui lo sono la fisica o la chimica, campi in cui teorie e ipotesi sono soggette a conferma oggettiva, ma è possibile che un giorno lo diventi [4]. Si può discutere su quale sia l’elemento distintivo dell’intelligenza artificiale rispetto alla semplice programmazione intelligente o all’ingegneria, ma dobbiamo fare attenzione per evitare che questa mancanza di una visione condivisa ci distragga da un’importante verità: questa nuova tecnologia avrà enorme impatto su moltissime cose che ci sono care, dai nostri stili di vita alla percezione che abbiamo di noi stessi. Forse non siamo ancora capaci di definire l’intelligenza artificiale ma, nel frattempo, sono certo che, al riguardo, molti sentano qualcosa di simile a quanto Potter Stewart, giudice della Corte suprema degli Stati Uniti, espresse con una famosa battuta sulla pornografia: “Quando la vedo la riconosco” [5].

Bibliografia

[1] Mc Carthy J, Minsky ML, Rochester N, Shannon CE. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Pubblicato il 31 agosto 1955.
[2] Gardner H, Frames of mind: the theory of multiple intelligences. New York, NY: Basic Books, 1983. Ed. it. Formae mentis. Saggio sulla pluralità dell’intelligenza. Milano: Feltrinelli, 1987.
[3] Rasskin-Gutman D, Metáforas de ajedrez: la mente humana y la inteligencia artificial. Madrid: La Casa del Ajedrez, 2005.
[4] Più precisamente, le teorie devono essere falsificabili, non verificabili, per essere considerate “scienza dura”. Si veda ad esempio Karl Popper, The Logic of Scientific Discovery (London: Routledge, 1959), tr. it. Logica della scoperta scientifica (Torino: Einaudi, 1970).
[5] Lattman P. The origins of justice Stewart’s “I know it when I see it”. LawBlog, Wall Street Journal, 27 settembre 2007.

dicembre 2017


Un mondo governato dagli algoritmi

Dalla rivoluzione industriale alla rivoluzione digitale. L’impatto sulla società dei progressi nelle capacità intellettuali delle macchine

Intervista a Andrea Prencipe, prorettore vicario Professore di innovation management Università Luiss “Guido Carli”, Roma

Intelligenza artificiale: prima ancora di chiederci di cosa parliamo, come definiremmo l’intelligenza?

Una domanda a cui è difficile dare una risposta. Sebbene manchi una definizione univoca e condivisa dall’accademia internazionale sulla definizione dell’intelligenza, quando parliamo di intelligenza ci riferiamo a quella funzione mentale di riflettere, pensare, comprendere e apprendere da cui può scaturire un’azione. Il termine “intelligenza” dovrebbe derivare dalla contrazione latina tra “intu” e “legere”, cioè “leggere dentro”. Quindi l’intelligenza è forma di ragionamento che sviluppa una comprensione della realtà più profonda e completa e scopre le connessioni tra i vari aspetti della realtà stessa. Un fenomeno di certo complesso e multidimensionale. Lo psicologo Howard Gardner teorizza che l’intelligenza si manifesta in più dimensioni e che ne esistono almeno sette diverse tipologie: l’intelligenza logico-matematica, quella linguistica, spaziale, musicale, cinestetica o procedurale, interpersonale e intrapersonale. Un altro aspetto che mi preme sottolineare è la dimensione dinamica: una parte dell’intelligenza, cosiddetta innata, è determinata geneticamente, mentre un’altra si sviluppa dall’interazione con l’ambiente esterno e quindi con tutto ciò che ha a che fare con l’educazione. Ed è attraverso quest’ultima che l’intelligenza si traduce in intelligenza funzionale, da un qualcosa che è potenziale a un qualcosa attuale. Su questa falsariga possiamo riflettere sul concetto di intelligenza artificiale quale forma di ragionamento che pertiene a qualcosa di inumano – il computer – e che non segue necessariamente le stesse dinamiche e caratteristiche dell’intelligenza umana.

L’intelligenza artificiale quale forma di ragionamento che pertiene a qualcosa di inumano e che non segue necessariamente le stesse dinamiche e caratteristiche dell’intelligenza umana.

Un tempo il sapere collettivo si fondava sull’archiviazione attiva di dati che implementavano i cosiddetti “sistemi esperti” allo scopo di rendere più ampiamente disponibile il sapere e le competenze frutto del ragionamento: cos’è cambiato con l’avvento dei big data?

Sicuramente c’è stato un cambio di paradigma rispetto ai sistemi esperti che, per quanto facessero leva comunque sulla tecnologia informatica, si basavano su un approccio distinto e lontano rispetto a ciò che contraddistingue l’attuale rivoluzione digitale. Il sistema esperto ha una caratterizzazione molto chiara e precisa che si fonda su due pilastri: le basi di conoscenza e le regole di inferenza. Le basi di conoscenza altro non sono che fatti, regole e relazioni su uno specifico ambito di interesse “estratti” dall’intelligenza di un esperto umano e rappresentati con dei simboli; mentre le regole di inferenza descrivono come manipolare questi simboli e quindi le basi di conoscenze. L’apprendimento in questi sistemi avviene quindi ex ante per sviluppare i simboli e le regole che da ultimo saranno assemblati e usati per l’applicazione prefissata. Per definizione, i sistemi esperti sono fortemente specializzati e specifici di un dominio, tant’è che necessitano dell’acquisizione e incorporazione nei programmi informativi delle conoscenze e competenze di un esperto che vengono codificate. Per questa loro specificità hanno un’applicazione importante ma verticale. Con il progresso dei computer, in termini di memoria e capacità computazionale, e l’esplosione di dati in formato digitale è cambiato l’approccio nell’incorporare le competenze e nella loro analisi attraverso i programmi informatici. Negli anni ottanta si avevano a disposizione dati di archivio, cartacei o, per l’appunto, estratti dagli esperti, e non l’immensa base di dati in formato digitale oggi fruibile che rappresenta il primo pilastro del machine learning. Il secondo pilastro è la capacità computazionale del computer che permette a questi sistemi di “apprendere”. Nel machine learning, a differenza dei sistemi esperti, non c’è una regola di inferenza prestabilita ma piuttosto la capacità di derivare da questa mole immensa di dati dei pattern a partire dai quali la macchina fa esperienza e apprende automaticamente. Definire e identificare questa forma di computazione e identificazione di pattern come intelligenza è sicuramente corretto. Non è detto però che segua lo stesso approccio del sistema mentale proprio dell’intelligenza naturale dell’uomo.

Come guidare il futuro delle persone e delle aziende in previsione dei progressi nelle capacità intellettuali e fi siche delle macchine?

Sicuramente si rende necessaria una riflessione rispetto a quelle che possono e devono essere le competenze di noi esseri umani nell’utilizzo dei sistemi digitali e di machine learning, ormai pervasivi e che sempre più diventeranno fondamentali per qualsiasi tipo di professione. Un primo punto centrale è l’acquisizione dei digital skill per la loro gestione. È ormai impensabile non essere degli esperti digitali o di non essere almeno a conoscenza delle potenzialità della rivoluzione digitale affinché questa possa essere “piegata” e utilizzata rispetto a quelli che sono i nostri fini. Di conseguenza, è opportuno tener presente che sempre di più conviene delegare attività, mansioni e task a sistemi digitali, senza però dimenticare che è importante evitare la cosiddetta deresponsabilizzazione. Serve mantenere un minimo di responsabilità rispetto alla gestione di questi sistemi.

Sempre di più conviene delegare attività e mansioni a sistemi digitali. Ma è importante evitare la cosiddetta deresponsabilizzazione.

In un mondo governato dagli algoritmi, quali cambiamenti possiamo aspettarci riguardo all’organizzazione delle imprese e del sistema economico?

Per capire gli effetti della rivoluzione digitale in corso servono almeno due livelli di analisi. Un primo livello che analizza la ridefinizione dei confini dei settori industriali e la loro classificazione. Con la digitalizzazione le imprese fanno riferimento o si relazionano ad altre imprese e organizzazioni che in una classificazione precedente non le vedevano parte di uno stesso settore industriale. Ne deriva che la dimensione dei settori industriali viene sostituita dagli ecosistemi. Una seconda analisi è a livello micro, sull’organizzazione delle imprese. La rivoluzione digitale sta infatti ridefinendo i confini aziendali così come quelli settoriali appena descritti, tant’è che si parla di impresa aperta e conseguentemente di innovazione aperta (open innovation). Per governare i processi innovativi e per essere competitive, le imprese devono necessariamente far riferimento sempre di più a un numero di partner importanti, e ovviamente il supporto digitale diventa fondamentale. La digitalizzazione interviene anche nei processi di gestione dei clienti e nella modalità con cui relazionarsi. Questi diversi impatti descritti costringono le imprese a riconsiderare la propria organizzazione e i processi operativi in funzione di quella che è la rivoluzione digitale.

L’ingresso dell’intelligenza artificiale ruberà posti di lavoro o viceversa ne creerà di nuovi? Quali settori/professioni sono più a rischio di perdere posti di lavoro?

Non vi è dubbio che la trasformazione digitale creerà nuove professioni e allo stesso tempo eroderà il perimetro delle professioni tradizionali così come finora intese ed espletate dagli esseri umani. Ma questo è valso per tutte le rivoluzioni tecnologiche passate cui abbiamo assistito e in qualche modo gestito. A partire da quella industriale ogni rivoluzione è stata socioantropologica oltre che tecnologica. Molte delle invenzioni sono andate ben oltre il loro scopo circoscritto originario. Per esempio chi ha inventato l’energia elettrica o la macchina al vapore non immaginava che ne sarebbe scaturito un nuovo sistema industriale. Allo stesso modo l’innovazione digitale sta modificando il tessuto socioantropologico: la tecnologia informatica è ormai parte integrante del lavoro e del nostro tempo libero e sta cambiando il modo di vivere degli esseri umani sia a livello personale che, soprattutto, a livello di organizzazione di impresa.

Questa pervasività della digitalizzazione nasconde dei pericoli? Come correre ai ripari?

La digitalizzazione è diventata pervasiva perché si è modificato il rapporto uomo-macchina. Fino agli anni ottanta gli investimenti delle imprese in tecnologie informatiche non avevano mai avuto un impatto importante sulla produttività delle stesse imprese. Tra i policy maker che si facevano carico delle politiche industriali dei vari paesi era comune riferirsi al paradosso della produttività: nonostante investimenti importanti da parte delle imprese nell’information technology questi non si traducevano in una crescita della produttività. La ragione andava ricercata nell’uomo che, oltre a essere lento nei processi di cambiamento, non era ancora pronto ad adottare e a sfruttare al meglio le tecnologie informatiche. La pervasività della tecnologia informatica ha abbattuto questa barriera tanto da trasformare il rapporto uomo-macchina in una relazione uomo-macchina. Oggi l’uomo convive con la tecnologia informatica e sempre di più si fi da di essa. Sicuramente questa relazione di simbiosi avrà dei risvolti positivi, come per esempio il superamento del paradosso della produttività, ma anche negativi quali le problematiche sulle disuguaglianze di reddito e quelli sulla privacy e security. Rispetto a quest’ultima è stata sviluppata una disciplina ad hoc, la cyber security, finalizzata a identificare dei sistemi che permettano di essere più protetti rispetto ad attacchi cibernetici. In generale, la nostra attenzione deve essere rivolta alla valutazione dei possibili effetti controproducenti e allo sviluppo di sistemi che evitino che la tecnologia informatica diventi pervasiva e negativa. È una questione di responsabilità.

La pervasività della tecnologia informatica ha trasformato il rapporto uomo-macchina in una relazione uomo-macchina.

dicembre 2017

Il potere degli algoritmi

Le due culture – quella informatica e quella del medico – devono lavorare insieme. La frase chiave

dell’articolo di Abraham Verghese, Nigam H. Shah e Robert A. Harrington, uscito sul JAMA del 2 gennaio 2018, sembra un’ovvietà. A parte in qualche film di fantascienza non particolarmente riuscito, nessuno pensa che la nostra salute possa davvero e del tutto essere affidata alle decisioni di un computer. Come nessuno, d’altra parte, può ormai ritenere che la clinica possa fare a meno del supporto che può giungere già oggi da una gestione intelligente di dati attendibili. La viewpoint dei tre autori della Stanford university è uno dei tantissimi contributi pubblicati negli ultimi mesi in tema di intelligenza artificiale, di machine learning e delle loro applicazioni in ambito sanitario. Quasi tutti sottolineano la centralità della qualità delle informazioni che le “macchine” dovrebbero capitalizzare e l’impossibilità di rinunciare a una componente decisionale umana, nel momento delle scelte che contano. Per quanto possa apparire estremista, uno dei limiti della maggior parte di queste analisi è che sono firmate da persone umane.

Antropocentriche, al punto di non riuscire a immaginare una realtà in cui – per esempio – il controllo di qualità dei dati sarà affidato alla macchina stessa, dal momento che nessun filtro umano sarà previsto tra la generazione dei “numeri”, la loro elaborazione e le decisioni assunte o proposte. Quelli che leggiamo sono commenti preoccupati: per una volta, anche il medico diventa pessimista, lui che – rispetto al computer – è invariabilmente più ottimista quando si tratta di prevedere l’aspettativa di vita di un malato o l’esito di una cura. Dalle macchine potremmo attenderci quell’equilibrio che troppe volte condiziona le nostre scelte. Quell’equilibrio che fortunatamente è il fi lo conduttore delle dieci regole per una saggia intelligenza artificiale proposte da Enrico Coiera su Twitter (#AImedia). Evitare le esagerazioni, fare attenzione ai conflitti di interesse di chi si dichiara entusiasta del machine learning, non accontentarsi di una prima esperienza di successo, preoccuparsi dell’ultimo miglio”, quello in cui il prodotto dovrà essere utilizzato nel mondo reale, ma anche del “primo miglio”, quello in cui tutto viene impostato.

  • Verghese A, Shah NH, Harrington RA. What this computer needs is a physician. JAMA 2018;319:19.

Il machine learning è pop. Il grafico confronta la popolarità su scala globale del machine learning, dell’artificial intelligence e dei big data negli ultimi sei anni misurata con Google trends. A maggio del 2017 la parola “machine learning” ha superato quella “big data” in termini di numero di ricerche effettuate dagli utenti online nel mondo. Negli Usa il sorpasso è avvenuto sette mesi prima.

1 Comment

    Leave A Comment

    Lascia un commento

    Iscriviti alla newsletter di Forward

    Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

    Pin It on Pinterest

    Share This