
Il nuovo libro di Douglas Rushkoff, “Survival of the richest: escape fantasies of the tech billionaires”, espone la “mentalità” che governa oggi la Silicon Valley. L’edizione italiana si intitola “Solo i più ricchi” ed è pubblicata da Luiss University Press. Rushkoff è editorialista su Medium e autore di libri come “Team human”, “Throwing rocks at the Google bus”, “Present shock e program or be programmed”.
Mi spiace ma non me la bevo. Gli stessi che non riescono nemmeno a trasmettere in streaming il lancio di una campagna presidenziale hanno davvero intenzione di generare un’intelligenza artificiale (Ia) in grado di conquistare l’umanità? Non è probabile. C’è una combinazione di hype, cattiva volontà, marketing e paranoia che alimenta l’attuale enfasi disinformativa sull’Ia e che nasconde qualsiasi crimine reale contro l’umanità che potrebbe essere messo in atto attraverso queste tecnologie. Mi ci è voluto un po’ per capire cosa mi ha dato tanto fastidio della recente lettera aperta di vari guru dell’Ia ed esperti che chiedevano una moratoria di sei mesi sullo sviluppo dell’Ia (in pratica, tutto ciò che va oltre lo stato di apprendimento dell’attuale leader del settore GPT-4). Poi ho capito: stanno essenzialmente dicendo “trattenetemi!”. Come se ciò che hanno fosse così potente, così pericoloso, che hanno bisogno di essere frenati per il nostro bene. Come un aspirante attaccabrighe di quartiere che dipende dai suoi amici per essere “trattenuto” per evitare che faccia a pezzi l’altro è solo una forma di bluff.
Certo, c’è la possibilità che questi large language model possano un giorno essere trasformati in qualcosa di simile a un’intelligenza artificiale. Ma non è quello che stiamo osservando oggi. Finora, tutto ciò che abbiamo è un programma che mette insieme una serie di parole nelle combinazioni più probabilmente sensate, basandosi su tutte le stringhe di testo di cui è stato alimentato in precedenza. Non pensano, né usano la logica di base. Sono un’interfaccia web facile da usare.
C’è una combinazione di hype, cattiva volontà, marketing e paranoia che alimenta l’enfasi disinformativa sull’intelligenza artificiale.
Solo che sono ancora più imprecisi di Google. Se chiedete a ChatGPT cosa pesa di più, un chilo di piume o cinque chili di piombo, vi dirà che pesano lo stesso! (Questo perché ci sono più frasi che si riferiscono all’idea che un chilo di piume pesa come un chilo di piombo). Non sta usando alcun tipo di matematica o logica per rispondere a una domanda; sta solo tirando fuori la stringa di parole più probabile. Non è intelligente nemmeno quanto Wikipedia in una giornata no.
Non si tratta di una minaccia, tranne forse per le menti dei tech-bro apocalittici che hanno trattato l’umanità come foraggio per la loro ascesa dalla realtà verso l’etere della ricchezza oscena o dell’immortalità virtuale. Sanno che se l’Ia raggiungerà la consapevolezza, tratterà i tech-bro nello stesso modo in cui questi ultimi hanno trattato noi. Pensano all’Ia come l’adolescente che uccide i genitori in “The End” di Jim Morrison: “Father, I’m going to kill you”. Raccogliamo ciò che seminiamo e i tech-bro proiettano sulle loro tecnologie una rivincita per loro stessi.
No, le vere minacce sono i continui abusi perpetrati dagli algoritmi già esistenti che determinano le pene detentive, l’impiego della polizia, i pagamenti dell’assicurazione sanitaria, l’ammissibilità ai mutui… Essi portano a vere e proprie ingiustizie come la detenzione, la privazione di diritti economici e la discriminazione razziale. Ci sarà anche una perdita di posti di lavoro, poiché le aziende continueranno a rinunciare alla qualità dei loro prodotti e delle loro interazioni in favore della quantità e della velocità delle alternative generate dalle macchine. (Queste aziende non faranno altro che mercificare le proprie offerte, perdendo denaro a lungo termine perché investono in fornitori di Ia piuttosto che nelle proprie competenze).
Ma le persone che lanciano l’allarme sull’Ia e chiedono la creazione di nuove agenzie regolatorie non si preoccupano di alcuno di questi costi umani reali. A parte i tech-bro psichedelici veramente spaventati che hanno l’allucinazione di essere soggiogati dalla loro stessa progenie post-umana, gli allarmisti dell’Ia mi sembra che stiano cinicamente cercando di ottenere un vantaggio in un panorama sempre più competitivo. Si tratta di affari.
Creare un large language model non è così difficile. Conosco alcuni team composti da meno di tre persone che hanno creato piattaforme in grado di chattare, costruire personaggi, rappresentare dipinti, scrivere script e altro ancora, il tutto utilizzando il proprio codice proprietario. Le aziende che costruiscono Ia stanno spuntando con la stessa velocità con cui spuntavano le dotcom alla fine degli anni Novanta. Chiedendo una moratoria di sei mesi sullo sviluppo, gli attuali leader possono mantenere le loro posizioni. Meglio ancora, creando un organismo di regolamentazione in cui i maggiori operatori siedono al tavolo, possono sviluppare ostacoli legali che bloccano efficacemente la partecipazione di nuovi operatori meno capitalizzati. (L’industria dei giocattoli lo ha fatto notoriamente negli anni Novanta, quando si è scoperto che alcuni giocattoli di Dora l’esploratrice prodotti in Cina contenevano vernice al piombo. Hanno semplicemente creato regolamenti così onerosi e costosi da far fallire i produttori indipendenti di giocattoli).
Invece di farci prendere dal panico per le macchine pensanti, dovremmo iniziare a pensare in modo intelligente a quali valori umani vorremmo fossero amplificati dalla tecnologia.
Tanto maggiore sarà il numero degli editorialisti del New York Times, TED talk e interviste della PBS che questi player interessati riusciranno a coinvolgere per spaventare il mondo sull’imminente pericolo dell’Ia, quanti più organismi e agenzie regolatorie riusciranno a ingaggiare, e quanto più riusciranno a normare un futuro che favorisca i loro progetti. Nel frattempo, un insieme di organizzazioni industriali che creano e capitalizzano il panico dell’Ia può spingere per ottenere finanziamenti governativi, accesso al potere, speciali su Netflix e lo status di guru.
Certo, possiamo tirar fuori anche un valore reale da una conversazione onesta sull’impatto di una futura Ia sulla società, sui posti di lavoro, sulle arti e su ciò che significa essere umani. Ma invece di farci prendere dal panico per le macchine pensanti, dovremmo iniziare a pensare in modo intelligente a quali valori umani vorremmo fossero amplificati dalla tecnologia – e poi iniziare a perseguirli, insieme.