Intelligenza artificiale Articoli

Di che cosa parliamo quando parliamo di intelligenza artificiale

Per ora ci sono poche ragioni per credere che abbia molto in comune con l’intelligenza umana.

Jerry Kaplan

Fellow del Center for legal informatics, professore di storia e filosofia dell’intelligenza artificiale, Dipartimento di computer science, Stanford university

By Dicembre 2017Luglio 31st, 2020No Comments

 

Che cos’è l’intelligenza artificiale? Sono state proposte molte definizioni di intelligenza artificiale, ognuna espressione di un diverso punto di vista, ma tutte più o meno allineate sul concetto di creare programmi informatici o macchine capaci di comportamenti che riterremmo intelligenti se messi in atto da esseri umani. Nel 1955 John McCarthy, uno dei padri fondatori della disciplina, descriveva il processo come “consistente nel far sì che una macchina si comporti in modi che sarebbero definiti intelligenti se fosse un essere umano a comportarsi così” [1].

Questo approccio apparentemente ragionato alla caratterizzazione dell’intelligenza artificiale è in realtà profondamente difettoso. Consideriamo, ad esempio, la difficoltà del definire, e ancor di più del misurare, l’intelligenza umana. La nostra predilezione culturale per ridurre le cose a misurazioni numeriche che facilitano i paragoni diretti crea spesso una falsa patina di oggettività e precisione, e i tentativi di quantificare qualcosa tanto soggettivo e astratto come l’intelligenza rientra chiaramente in questa categoria. Il quoziente di intelligenza della piccola Sally è sette punti più alto di quello di Johnny? Vi prego, trovate un qualsiasi altro modo più equo di decidere a chi spetta quell’ultimo, prezioso posto all’asilo nido. Per non fare che un esempio dei tentativi di accantonare questa eccessiva semplificazione, pensate al controverso quadro fornito dallo psicologo dello sviluppo Howard Gardner, che propone una teoria dell’intelligenza a otto dimensioni, da quella “musicale-ritmica” a quella “naturalistica”, passando per quella “cinetico-corporale” [2].

Nondimeno, ha senso dire che una persona è più intelligente di un’altra, almeno nell’ambito di molti contesti. Esistono peraltro determinati indicatori di intelligenza che sono ampiamente accettati e altamente correlati con indicatori di altro tipo. Per esempio, quanto velocemente e precisamente gli studenti sono in grado di fare addizioni e sottrazioni è ampiamente utilizzato come modo di misurare le abilità logiche e quantitative, per non dire l’attenzione al dettaglio. Ma è sensato applicare questo standard a una macchina? Una calcolatrice da un dollaro è capace di battere a mani basse qualsiasi essere umano in questo esercizio – persino senza avere le mani. Prima della seconda guerra mondiale un “calcolatore” era un professionista qualificato, di solito di sesso femminile – fatto interessante – dal momento che si riteneva che le donne fossero capaci di eseguire questo compito in modo più meticoloso e attento degli uomini. La velocità di calcolo è dunque un indicatore del fatto che le macchine possiedono un’intelligenza superiore? Ovviamente no.

A complicare il compito di mettere a confronto l’intelligenza umana e quella delle macchine c’è il fatto che la maggior parte dei ricercatori nel campo dell’intelligenza artificiale sarebbe d’accordo nel dire che come affronti il problema è più importante che se lo risolvi. Per capire perché, provate a immaginare un semplice programma per computer pensato per il gioco del tris, quello in cui i giocatori inseriscono delle X e delle O in una griglia tre-per-tre finché uno dei due non riesce a mettere tre simboli uguali in fila, in colonna o in diagonale (o, in alternativa, finché tutti gli spazi non sono occupati, nel qual caso la partita è pari).

Esistono esattamente 255.168 possibili esiti di una partita a tris, e nell’odierno mondo dei computer è relativamente semplice generare tutte le possibili sequenze di gioco, segnare quelle vincenti e giocare la partita perfetta semplicemente effettuando ogni mossa sulle basi di una tabella. Tuttavia, molti non accetterebbero di definire un programma così semplice “dotato di intelligenza artificiale”. Immaginate ora di adottare un approccio diverso: un programma privo di nozioni preconcette relative alle regole del gioco, che osserva gli esseri umani e non impara soltanto cosa significa vincere ma quali sono le strategie più efficaci per farlo. Potrebbe ad esempio imparare che, ogni qualvolta un giocatore riesce a mettere due simboli uguali in fila, l’altro dovrebbe sempre bloccare il completamento del tris, oppure che se si riescono a occupare tre angoli della griglia lasciando tra di essi degli spazi vuoti, di solito questo si traduce in una vittoria. La maggior parte degli osservatori direbbe che questo programma è artificialmente intelligente, soprattutto perché è stato capace di acquisire l’abilità necessaria senza ricevere alcuna guida o istruzione.

Ora, non tutti i giochi né, tantomeno, tutti i problemi interessanti possono essere risolti per enumerazione come succede con il tris. Nel gioco degli scacchi, per dare un’idea, sono possibili circa 10120 partite uniche, vale a dire molte più del totale degli atomi presenti nell’universo [3]. Si può quindi dire che buona parte della ricerca nel campo dell’intelligenza artificiale non sia altro che un tentativo di trovare soluzioni accettabili a problemi che non possono essere soggetti a un’analisi definitiva o a enumerazione per tutta una serie di ragioni teoriche e pratiche. Eppure, questa caratterizzazione non è di per sé sufficiente: molti metodi statistici soddisfano questo criterio pur non avendo niente a che fare con l’intelligenza artificiale.

Esiste tuttavia una equivalenza non intuitiva, eppure reale, tra lo scegliere una risposta da un’immensa proliferazione di possibilità e arrivare alla stessa servendosi di analisi e creatività. Questo paradosso può essere formulato per mezzo della famosa storiella secondo la quale un numero sufficiente di scimmie che digita a caso su un numero sufficiente di tastiere finirà per comporre le opere complete di Shakespeare. In un contesto più moderno, ogni possibile performance musicale di una lunghezza data può essere rappresentata come un singolo file mp3 facente parte di una collezione finita. Saper scegliere quel preciso file musicale dalla lista è forse un atto creativo equivalente all’averlo registrato? Non è di certo la stessa cosa, ma forse si tratta di due capacità entrambe meritevoli della stessa ammirazione.

Quando valutiamo l’abilità degli studenti nel fare le addizioni, non teniamo conto di come hanno svolto il lavoro – presumiamo cioè che abbiano usato solo il cervello con cui sono nati e gli strumenti necessari, come carta e penna. Perché, allora, la cosa diventa rilevante se il soggetto da testare è una macchina? Questo accade perché diamo per scontato che un essere umano che svolge questo compito stia usando determinate abilità innate o apprese che possono in linea di principio essere applicate a una vasta gamma di problemi paragonabili. Se tuttavia è una macchina ad avere le stesse abilità, o superiori, siamo restii a convincerci che stia accadendo qualcosa di analogo.

C’è anche un altro problema nell’uso delle capacità umane come metro di giudizio per l’intelligenza artificiale: le macchine sono capaci di svolgere numerosi compiti del tutto impossibili per le persone, e molti di questi compiti di certo somigliano a dimostrazioni di intelligenza. Un programma di sicurezza è capace di sospettare un attacco informatico sulla base di sequenze di richieste accesso dati insolite in un arco di appena cinquecento millisecondi. Un sistema di allerta tsunami potrebbe far suonare l’allarme sulla base di impercettibili mutazioni nelle altezze oceaniche che rispecchiano complessi sommovimenti geologici sottomarini. Un programma pensato per la scoperta di nuovi farmaci riesce a mettere a punto una nuova ricetta dopo aver scoperto una particolare sequenza di accordi molecolari mai notata prima in composti di trattamento contro il cancro rivelatisi efficaci. Il comportamento di sistemi di questo tipo, destinati a diventare sempre più comuni in futuro, non si presta in realtà a paragoni con le capacità umane. Tuttavia, siamo soliti considerare questi sistemi “artificialmente intelligenti”. (…)

Il punto non è se consideriamo queste macchine dotate di consapevolezza o meno, se le rispettiamo come nuove forme di vita o le riteniamo semplici elettrodomestici intelligenti. Il fatto è che, verosimilmente, esse giocheranno un ruolo sempre più critico e profondo in molti aspetti delle nostre vite.

Ma l’intelligenza artificiale è una vera scienza?

(…) La mia opinione personale sul significato dell’intelligenza artificiale è la seguente: l’essenza dell’intelligenza artificiale – in effetti, l’essenza dell’intelligenza – è la capacità di fare generalizzazioni appropriate in modo tempestivo e su una base dati limitata. Tanto più è vasto il campo di applicazione, tanto più rapidamente vengono tratte le conclusioni con informazioni minime, tanto più intelligente è il comportamento osservato. Se lo stesso programma che impara il tris è capace di imparare qualsiasi gioco da tavolo, tanto meglio. Se riuscisse anche a riconoscere le facce, a diagnosticare le condizioni mediche e a comporre musica nello stile di Bach, credo saremmo tutti d’accordo nel considerarlo artificialmente intelligente (si noti che esistono oggi singoli programmi che riescono a eseguire in modo accettabile ciascuno di questi compiti), e sarebbe irrilevante se lo facesse nello stesso modo degli esseri umani o se apparisse cosciente di sé tanto quanto le persone.

Un elemento importante per fare buone generalizzazioni è considerare il più ampio contesto disponibile. Quando decidete di evitare un particolare percorso in auto perché spesso è trafficato, oggi è un giorno di festa, c’è bel tempo e quel percorso è il più semplice per arrivare alla spiaggia, state operando una generalizzazione di questo tipo. Quando il vostro software di gestione della posta elettronica suggerisce di aggiungere una conference call al vostro calendario sulla base del testo di una email che avete ricevuto, adattando l’orario dal momento che chi l’ha mandata vive in un diverso fuso orario, e interpretando le parole “martedì prossimo” nel senso di “tra otto giorni” e non “domani”, e collegando la voce di calendario al contatto del mittente  nella vostra rubrica, per vostra comodità, si sta cimentando in un simile processo di generalizzazione sulla base di informazioni da fonti multiple. Quando lo stesso programma smette di fare suggerimenti del genere perché li rifiutate sempre, sta ancora generalizzando sulla base del contesto. Infatti, l’apprendimento può essere visto come un processo di esecuzione di generalizzazioni cronologicamente sequenziali che tiene conto delle esperienze precedenti nelle analisi future, proprio come ragionare per analogia significa usare conoscenza proveniente da un determinato campo come un nuovo contesto per mezzo del quale generalizzare riguardo a un altro. A volte, quando si affrontano nuove sfide, bisogna spingersi piuttosto in là prima di riuscire a orientarsi, ma se si procede con giudizio i risultati possono essere in effetti molto intelligenti. Indizi interessanti suggeriscono che un contesto allargato potrebbe essere la base della nostra stessa coscienza, come vedremo più avanti. Forse è l’ampiezza la culla dell’intelligenza.

Tanti ricercatori sono impegnati nel compito di sondare le profondità della mente umana, o a lambirne la superficie, studiando nel dettaglio la struttura del cervello, in parte al fine di svelare il modo in cui svolgiamo i più notevoli compiti cognitivi. Il mistero che si trovano ad affrontare riguarda il come sia mai possibile che unità biologiche relativamente regolari e uniformi – i neuroni – possano, tramite le loro interconnessioni, svolgere imprese tanto diverse tra loro come immagazzinare ricordi, elaborare informazioni visive, controllare i nostri corpi, produrre emozioni, guidare il nostro comportamento e generare la percezione qualitativa di noi stessi. Per quanto inesplicabile ciò possa sembrare, questo è quel che accade. Chi può dire, allora, che un programma, altrettanto semplice, al paragone, non possa fare lo stesso se solo dotato di libertà d’azione su risorse informatiche e input sufficienti? Questo significa che, d’un tratto, computer dotati di intelligenza artificiale “diventeranno vivi” come si vede spesso nei film?

In un mondo umano avremo bisogno di robot civilizzati.

Testo estratto dal libro
Jerry Kaplan.
Intelligenza artificiale –
Guida al futuro prossimo.
Roma: LUISS University
Press, 2017.

Respirate pure: dal momento che ho passato gran parte della mia vita ad aggirarmi nei più segreti recessi di programmi di intelligenza artificiale sempre più sofisticati, posso dire di non aver mai notato il benché minimo indizio del fatto che siamo davvero diretti a questo, almeno non nell’immediato futuro. È più probabile che i compiti che riteniamo abbiano bisogno dell’ingegno umano siano in realtà più suscettibili di automazione di quanto avremmo mai osato credere. Forse l’intelligenza intesa come concetto coerente, soggetto ad analisi formale, misurazione e duplicazione, è solo un’illusione.

L’intelligenza artificiale non è forse una scienza dura nel senso in cui lo sono la fisica o la chimica, campi in cui teorie e ipotesi sono soggette a conferma oggettiva, ma è possibile che un giorno lo diventi [4]. Si può discutere su quale sia l’elemento distintivo dell’intelligenza artificiale rispetto alla semplice programmazione intelligente o all’ingegneria, ma dobbiamo fare attenzione per evitare che questa mancanza di una visione condivisa ci distragga da un’importante verità: questa nuova tecnologia avrà enorme impatto su moltissime cose che ci sono care, dai nostri stili di vita alla percezione che abbiamo di noi stessi. Forse non siamo ancora capaci di definire l’intelligenza artificiale ma, nel frattempo, sono certo che, al riguardo, molti sentano qualcosa di simile a quanto Potter Stewart, giudice della Corte suprema degli Stati Uniti, espresse con una famosa battuta sulla pornografia: “Quando la vedo la riconosco” [5].

Bibliografia

[1] Mc Carthy J, Minsky ML, Rochester N, Shannon CE. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Pubblicato il 31 agosto 1955.
[2] Gardner H, Frames of mind: the theory of multiple intelligences. New York, NY: Basic Books, 1983. Ed. it. Formae mentis. Saggio sulla pluralità dell’intelligenza. Milano: Feltrinelli, 1987.
[3] Rasskin-Gutman D, Metáforas de ajedrez: la mente humana y la inteligencia artificial. Madrid: La Casa del Ajedrez, 2005.
[4] Più precisamente, le teorie devono essere falsificabili, non verificabili, per essere considerate “scienza dura”. Si veda ad esempio Karl Popper, The Logic of Scientific Discovery (London: Routledge, 1959), tr. it. Logica della scoperta scientifica (Torino: Einaudi, 1970).
[5] Lattman P. The origins of justice Stewart’s “I know it when I see it”. LawBlog, Wall Street Journal, 27 settembre 2007.

 

Lascia un commento