Scelte e decisioni Interviste

Su quale pil scommettere?

Analizzare l’economia con i sistemi complessi della fisica per ottenere con i big data previsioni oggettive di crescita.

Intervista a Luciano Pietronero

Dipartimento di fisica, Sapienza università di Roma

By Settembre 2017Luglio 31st, 2020No Comments

Luciano Pietronero, professore di fisica dell’Università Sapienza di Roma e consulente dell’Ifc-World bank di Washington, con il suo gruppo di ricerca ha sviluppato economic complexity, una nuova metodologia fondata su un algoritmo che elabora i big data economici e industriali di un paese derivando analisi e previsioni più oggettive e affidabili sulla sua evoluzione economica rispetto all’analisi tradizionale.

Come nasce economic complexity e che differenze ci sono con l’analisi tradizionale dei fenomeni economici?

L’oggetto di studio sono la competitività industriale e le prospettive di crescita dei paesi. Per studiare questo problema si acquisiscono di norma moltissimi dati, dall’educazione alle fonti energetiche, ai trasporti. Nell’analisi tradizionale dall’insieme di dati si ottiene una risposta soggettiva: la sintesi dipende dall’osservatore, quindi con gli stessi dati di partenza, economisti diversi possono dare risposte diverse. Il nostro obiettivo strategico consiste nel superare questa situazione “prescientifica” e cercare di derivare un’informazione unica attraverso gli algoritmi appropriati e un’analisi matematica verificabile, eliminando quasi del tutto la soggettività. Si tratta di un approccio davvero nuovo quindi, radicalmente diverso dall’analisi tradizionale, e non è un caso che nasca nel contesto di un dipartimento di fisica. La fisica è la scienza per eccellenza, quella più rigorosa, e l’idea di eliminare il più possibile l’elemento soggettivo dall’analisi è un aspetto tipicamente scientifico.

I big data sono il carburante dell’algoritmo di economic complexity

I big data rappresentano una grande opportunità e insieme una mitologia. Al contrario di quello che comunemente si pensa, non è ovvio che aggiungere dati (anche se corretti) comporti necessariamente un miglioramento dell’analisi e delle previsioni. L’aggiunta di un nuovo dato in una nuova dimensione da un lato fornisce qualcosa dal punto di vista informativo, dall’altro aggiunge “ambiguità” perché bisogna confrontare quel nuovo dato, in modo inevitabilmente arbitrario, con quelli appartenenti a dimensioni già oggetto di ricerca. Il bilancio per l’analisi può rivelarsi positivo o negativo, ma la situazione migliore è partire da dati magari limitati ma in cui il rapporto segnale rumore è ottimale, quindi i criteri di selezione sono essenziali. Non sempre “più è meglio”…

Google page rank, l’agoritmo degli algoritmi, è punto di riferimento o una base di confronto?

Google page rank è stata una grande rivoluzione prima concettuale e poi pratica ed economica. Il passaggio dall’analisi del sito a quella dei legami tra i siti (gestita da un algoritmo tra l’altro abbastanza semplice) ha rappresentato un salto concettuale nell’analisi dei sistemi connessi. Il suo successo è dimostrato dal fatto che spesso in un network, in un sistema con siti e legami, si è portati naturalmente a usare un algoritmo simile a Google page rank. Per parte nostra, crediamo di aver dimostrato che nella prospettiva dell’analisi dell’economia fondamentale ci sia bisogno di un algoritmo qualitativamente diverso. Google è stato il primo esempio ma non è un algoritmo universale, e c’è spazio per la creatività e le novità. Tanti algoritmi per tanti problemi: le bufale del web, le raccomandazioni, la medicina.

L’analisi di economic complexity promette di diventare uno strumento fondamentale per orientare le scelte delle istituzioni internazionali e dei governi nelle scelte nelle scelte di politica economica. Vi siete posti il problema dell’impatto che le vostre previsioni potrebbero avere sui mercati?

Tradizionalmente economia e finanza vengono considerate separate ma in realtà non è così, perché in realtà ci sono importanti connessioni. Economic Complexity si basa sull’economia fondamentale, le previsioni hanno la massima probabilità di essere verificate in un arco che va dai 3-5 ai 7 anni. Si valuta la capacità industriale di un paese e si osserva l’evoluzione su un arco che di tempo che avrà un impatto sulla finanza sul lungo periodo. L’impatto è sano perché se un soggetto ha una capacità produttiva fondamentale buona avrà successo. Economic Complexity premia queste caratteristiche, privilegiando l’economia reale rispetto alle speculazioni finanziarie. In un certo senso favorisce scelte più etiche…

Il passaggio dal “livello paese” al “livello azienda” è una prospettiva concreta per il vostro algoritmo? A che punto è lo sviluppo?

Un paese è come una foresta, un’ecosistema esteso e complesso. La sua stabilità è dovuta a diversi elementi e in questo caso economic complexity funziona bene. Un’azienda invece è come un animale individuale che deve mangiare ogni giorno e fronteggiare gli altri animali diretti competitori. Quindi un paese, per sua natura diverso dal punto di vista ecologico (e anche matematico) da un’azienda, richiede un’ottimizzazione sostanzialmente diversa. I nostri metodi oggi sono ottimizzati a livello paese, ma alcuni elementi valgono anche per le aziende. In futuro contiamo di estendere il metodo in modo sistematico anche per le aziende.

Lascia un commento