• Background Image

    Chi usa i big data per decidere

28 luglio 2017

Chi usa i big data per decidere

Machine power: la finanza degli algoritmi – Alessio Malta
Su quale pil scommettere?Intervista a Luciano Pietronero
La formula vincente. Per migliorarsi, il calcio dà i numeriRebecca De Fiore
Le scelte del MisterChris Anderson

Machine power: la finanza degli algoritmi

Algoritmi sempre più efficaci con enormi quantità di dati a disposizione promettono di generare le migliori decisioni di investimento possibili, idealmente prive di bias

Alessio Malta, Il Pensiero Scientifico Editore

IF X>5 THEN GO TO LINE 21, una semplice “scelta condizionale” (in presenza di un certo dato, salta verso un’altra istruzione). Questo era il livello di decision making di Eniac, il primo computer elettronico general purpose della storia, progettato dagli Stati Uniti durante la seconda guerra mondiale per il calcolo delle curve balistiche dei proiettili di artiglieria, trenta tonnellate di pannelli distribuite sull’area di un campo da volley. Alla presentazione ufficiale Eniac stupì il pubblico moltiplicando 5000 volte 97.367 per se stesso in meno di un secondo.

I primi computer si comportavano in effetti come formidabili calcolatori, in grado di elaborare dati ma non di prendere decisioni. La tecnologia da allora ha fatto enormi passi in avanti e le macchine sono sempre più capaci di processare dati e di fare scelte basate su modelli di comportamento umano. Questa rivoluzione, ancora in atto, si muove sotto le insegne della cosiddetta “intelligenza artificiale”.

Il concetto di adattamento da parte dei computer sulla base dei dati in entrata non è in realtà nuovissimo. L’intuizione delle reti neurali artificiali, una tecnica di programmazione che mima più o meno il modo in cui un cervello umano risolve problemi con un ampio raggruppamento di neuroni, è vecchia di decenni (le prime applicazioni notevoli risalgono alla fine degli anni ottanta). Quello che è cambiato recentemente è la disponibilità di dati strutturati e non strutturati (nel corso degli ultimi due anni è stato generato il 90 per cento dei dati nel mondo), la potenza dei computer e le tecniche di programmazione. Più della metà della popolazione mondiale ha accesso a internet e miliardi di smartphone sono utilizzati per produrre dati, cioè il materiale grezzo per l’intelligenza artificiale. Tecnologie e hardware sempre più potenti e sofisticati, disponibili a un costo infinitamente minore rispetto al passato, fanno il resto.

Intelligenza artificiale e machine learning

L’intelligenza artificiale e il machine learning possono essere definiti, senza complicarsi troppo la vita, come una serie di algoritmi che identificano e agiscono sulla base di schemi costanti e ripetibili all’interno dei dati osservati. I dati possono essere quelli prodotti da una routine o da una transazione ricorrente, tipo pagare i conti di una carta di credito, oppure derivano da un comportamento umano, come la tendenza all’acquisto al cambiare del prezzo. In altre parole, il machine learning è la chiave di tutti i processi che mettono le macchine in condizione di generare conoscenza dall’esperienza. Questo significa che i computer imparano dai dati senza che siano stati esplicitamente programmati su dove “guardare”.

Normalmente per arrivare a un algoritmo si segue una procedura sintetizzabile in tre passaggi: si circoscrive la fonte dei dati, si individua uno schema all’interno di quei dati e poi si fa una previsione della mossa successiva. Un algoritmo di questo tipo innalza la curva di apprendimento all’aumentare dei dati con cui ha a che fare e degli schemi che la macchina è in grado di identificare. In sostanza l’accuratezza nelle previsioni da parte del computer aumenta all’aumentare della qualità e della quantità dei dati. Più o meno quello che succede con l’autocompletamento automatico della barra di Google.

Tra le applicazioni più note e mature dell’intelligenza artificiale ci sono i programmi di speech recognition e di natural language processing (Siri di Apple), il gioco (gli scacchi e go), le macchine che si guidano da sole (la self-driving car di Google).

The next Big Think

Nel caso dei mercati finanziari, l’intelligenza artificiale e il machine learning, che per definizione sono predittivi su enormi masse di dati con velocità e accuratezza stupefacenti, si presentano davvero come la next Big Thing. Il machine learning sta già ridefinendo i processi all’interno delle società del settore finanziario sfidando modelli di business vecchi di decenni: le società di gestione della ricchezza usano soluzioni di deep learning (la branca del machine learning basata sui network neurali artificiali) per investimenti di lungo termine, gli advisor sono rimpiazzati da chatbot che arrivano a coprire il 95 per cento delle richieste, molti hedge fund fanno ricorso sistematicamente agli algoritmi per le decisioni di investimento .

In uno scenario come questo, gli istituti finanziari si sono stanno posizionando per trarre il massimo beneficio dagli sviluppi e le applicazioni specifiche dell’intelligenza artificiale. Il miglioramento in velocità ed efficienza nel processare i cosiddetti “big data” e il potenziale risparmio dei costi che deriva dalla capacità dell’intelligenza artificiale di prevedere le condizioni migliori per agire (timing, dimensioni del lotto, riserve di liquidità) delineano prospettive particolarmente allettanti. In più, i computer eseguono gli scambi finanziari a velocità e frequenze inavvicinabili da parte di un trader in carne e ossa, riducendo contemporaneamente gli errori manuali dovuti a fattori umani. Goldman Sachs prevede che i risparmi derivanti dall’implementazione di tecnologie di intelligenza artificiale potrebbero arrivare a 34-43 milioni all’anno entro il 2050 grazie al miglioramento delle scelte di investimento e ai tempi di reazione minori rispetto alle situazioni dei mercati.

Finanza su misura: i robo advisor

Fonte: Cognizant 2016

I robo advisor (cioè i servizi di consulenza finanziaria personalizzata online) usano modelli rule based che richiedono poche variabili (età, propensione al rischio, obiettivi, ecc.) per ricavare un modello di allocazione degli asset, cioè di diversificazione degli investimenti, che permette di guidare il cliente nel tempo ribilanciando il portafoglio quando necessario. In genere i robo advisor basano le loro scelte sulla cosiddetta “teoria del modern portfolio” che tipicamente privilegia investimenti di lungo termine per mantenere consistenti ritorni e richiede un’interazione minima con gli advisor finanziari umani.

Quando moriremo tutti, Aidyia continuerà a fare trading.
– Ben Goertzel, Chief Science Officer di Aidyia

Hedge fund col pilota automatico

Molti fondi speculativi (in inglese fund hedge) impiegano già nel loro organico le migliori menti della ricerca sull’intelligenza artificiale, anche se non ci sono ancora abbastanza dati disponibili sulle performance che provino incontrovertibilmente la superiorità degli algoritmi. Goldman Sachs usa l’intelligenza artificiale per analizzare big data come il tempo, le notizie, gli avvenimenti e l’impatto che hanno sui mercati finanziari. Gli hedge fund quantitativi Renaissance technologies o Two sigma puntano direttamente a “battere” il mercato attraverso decisioni di trading basate sugli algoritmi o su strategie sistematiche. Aidya, un hedge fund con base a Hong Kong, usa già l’intelligenza artificiale senza nessun tipo di intervento umano. Il motore analizza grandi quantità di dati, inclusi i prezzi di mercato, volumi e dati macroeconomici fino ai documenti societari per fare previsioni e prendere decisioni sulle strategie di trading e di investimento.

Analisti versus algoritmi

Nel 2016 la stima è che circa il 75 per cento degli scambi mondiali sia stato gestito da algoritmi. Un fenomeno di questa portata implica ovviamente conseguenze non trascurabili sui livelli occupazionali del settore e la tendenza sembra inarrestabile. Il Chicago mercantile exchange group per esempio ha chiuso gran parte dei suoi uffici nel 2016 perché i trader sono stati rimpiazzati dall’intelligenza artificiale.

Il fatto è che gli analisti finanziari impiegano giorni nella raccolta e nell’analisi dei dati, i computer minuti. Gli analisti evolvono e imparano dai loro errori ma l’intelligenza artificiale lo fa in un tempo incomparabilmente inferiore e senza i condizionamenti che derivano da sentimenti tanto umani quanto controproducenti come l’avidità o la paura. Ciononostante, del fattore umano non è ancora possibile fare a meno. Da una parte il ruolo degli analisti si sposta sempre di più verso quello dei data scientist, dei cosiddetti quants e degli ingegneri, che mantengono il sistema, gli forniscono gli input necessari ed entrano in azione quando si presenta uno scenario a cui la macchina non è capace di far fronte. Dall’altra, per fronteggiare l’innata diffidenza da parte delle persone a investire i propri soldi in un sistema che non prevede l’intervento umano, si cerca di affidare agli individui in carne ossa almeno le funzioni di controllo. I network neurali sono praticamente scatole nere, nel senso che nascondono i processi che orientano le decisioni e questo rappresenta un problema per le società che li usano e devono spiegare a clienti e investitori come vengono prese le singole decisioni, soprattutto quando si tratta di decisioni non ottimali o perfino sbagliate. Si possono anche fare cattive scelte negli investimenti o nella gestione del portfolio, ma c’è una bella differenza se un essere umano è in grado di spiegarle e di ragionare sulle alternative rispetto ad addossare semplicemente la colpa a una macchina.

Le macchine sono allergiche alle grandi crisi

In generale, mentre gli algoritmi di intelligenza artificiale hanno consentito ai computer di avere la meglio sui migliori giocatori in carne e ossa negli scacchi o nel go, è più complicato mettere i computer nelle condizioni di “battere” i mercati finanziari in modo significativo. L’intelligenza artificiale, considerando intervalli di investimento molto brevi (diciamo dai secondi, o anche meno, fino ai giorni), funziona bene perché si tratta di un contesto in cui macinare velocemente dati in modo efficiente aggiunge valore di per sé. Sul medio-lungo periodo (mesi o anni), i modelli di intelligenza artificiale non hanno ancora dato grandi risultati. Il modello di intelligenza artificiale per definizione impara il comportamento dei mercati dalle serie storiche e le previsioni hanno necessariamente un collegamento con il passato. È intuitivo quindi come un sistema del genere sia destinato al fallimento se si verifica una deviazione significativa nella psicologia dei mercati e nel comportamento degli investitori. Dopo la grande crisi finanziaria del 2008 i mercati hanno cominciato a muoversi in modo nettamente più difensivo rispetto al periodo precedente. E i modelli non sono stati in grado di “imparare” in anticipo questo nuovo comportamento.

… a sua immagine e somiglianza

Un altro tema che solleva il grande sviluppo dell’intelligenza artificiale è la mancanza di diversità e le sue conseguenze. Le macchine apprendono dai dati che sono creati e forniti dai data scientist. Se i dati in entrata hanno un condizionamento sistematico (per esempio l’eccessiva omogeneità dei data scientist), anche i risultati saranno gravati da quella distorsione: le macchine possono ricevere i bias dai creatori umani, imparare i loro “pregiudizi” e prendere quindi decisioni condizionate da quelle distorsioni.

Io non temo i computer. Temo la loro mancanza.
Isaac Asimov

Una rivoluzione annunciata

L’intelligenza artificiale ha il potenziale per trasformarsi in uno dei fattori più rivoluzionari del ventunesimo secolo e il settore finanziario sembra il banco di prova predestinato di questa rivoluzione. Il giro di affari secondo la Bank of America crescerà dagli attuali tre miliardi di dollari fino a 36 nel 2020 e a 127 nel 2025.

Algoritmi sempre più efficaci che incorporano enormi quantità di dati, strutturati e non strutturati ­– dalle notizie in tempo reale ai dati dai social media, dai valori di borsa alle serie storiche per le strategie di backtesting – per generare le migliori decisioni di investimento possibili, sempre meno rischiose e idealmente prive di bias e influenze umane.

Ogni rivoluzione che si rispetti porta con sé dei rischi, in questo caso la difficoltà di fare luce sull’opacità di un mercato dominato dagli algoritmi, la progressiva emarginazione dell’elemento umano e le evidenti questioni legate alla privacy dei big data. Ma la delega alle macchine è un processo in apparenza così ineluttabile, così intimamente legato al progresso tecnologico attuale che anche per il settore finanziario l’unica via sembra quella di assecondarne le conseguenze cercando quanto più possibile di governare gli aspetti potenzialmente negativi.

luglio 2017


Su quale pil scommettere?

Analizzare l’economia con i sistemi complessi della fisica per ottenere con i big data previsioni oggettive di crescita

Intervista a Luciano Pietronero, Dipartimento di fisica, Sapienza università di Roma

Luciano Pietronero, professore di fisica dell’Università Sapienza di Roma e consulente dell’Ifc-World bank di Washington, con il suo gruppo di ricerca ha sviluppato economic complexity, una nuova metodologia fondata su un algoritmo che elabora i big data economici e industriali di un paese derivando analisi e previsioni più oggettive e affidabili sulla sua evoluzione economica rispetto all’analisi tradizionale.

Come nasce economic complexity e che differenze ci sono con l’analisi tradizionale dei fenomeni economici?

L’oggetto di studio sono la competitività industriale e le prospettive di crescita dei paesi. Per studiare questo problema si acquisiscono di norma moltissimi dati, dall’educazione alle fonti energetiche, ai trasporti. Nell’analisi tradizionale dall’insieme di dati si ottiene una risposta soggettiva: la sintesi dipende dall’osservatore, quindi con gli stessi dati di partenza, economisti diversi possono dare risposte diverse. Il nostro obiettivo strategico consiste nel superare questa situazione “prescientifica” e cercare di derivare un’informazione unica attraverso gli algoritmi appropriati e un’analisi matematica verificabile, eliminando quasi del tutto la soggettività. Si tratta di un approccio davvero nuovo quindi, radicalmente diverso dall’analisi tradizionale, e non è un caso che nasca nel contesto di un dipartimento di fisica. La fisica è la scienza per eccellenza, quella più rigorosa, e l’idea di eliminare il più possibile l’elemento soggettivo dall’analisi è un aspetto tipicamente scientifico.

I big data sono il carburante dell’algoritmo di economic complexity

I big data rappresentano una grande opportunità e insieme una mitologia. Al contrario di quello che comunemente si pensa, non è ovvio che aggiungere dati (anche se corretti) comporti necessariamente un miglioramento dell’analisi e delle previsioni. L’aggiunta di un nuovo dato in una nuova dimensione da un lato fornisce qualcosa dal punto di vista informativo, dall’altro aggiunge “ambiguità” perché bisogna confrontare quel nuovo dato, in modo inevitabilmente arbitrario, con quelli appartenenti a dimensioni già oggetto di ricerca. Il bilancio per l’analisi può rivelarsi positivo o negativo, ma la situazione migliore è partire da dati magari limitati ma in cui il rapporto segnale rumore è ottimale, quindi i criteri di selezione sono essenziali. Non sempre “più è meglio”…

Google page rank, l’agoritmo degli algoritmi, è punto di riferimento o una base di confronto?

Google page rank è stata una grande rivoluzione prima concettuale e poi pratica ed economica. Il passaggio dall’analisi del sito a quella dei legami tra i siti (gestita da un algoritmo tra l’altro abbastanza semplice) ha rappresentato un salto concettuale nell’analisi dei sistemi connessi. Il suo successo è dimostrato dal fatto che spesso in un network, in un sistema con siti e legami, si è portati naturalmente a usare un algoritmo simile a Google page rank. Per parte nostra, crediamo di aver dimostrato che nella prospettiva dell’analisi dell’economia fondamentale ci sia bisogno di un algoritmo qualitativamente diverso. Google è stato il primo esempio ma non è un algoritmo universale, e c’è spazio per la creatività e le novità. Tanti algoritmi per tanti problemi: le bufale del web, le raccomandazioni, la medicina.

L’analisi di economic complexity promette di diventare uno strumento fondamentale per orientare le scelte delle istituzioni internazionali e dei governi nelle scelte nelle scelte di politica economica. Vi siete posti il problema dell’impatto che le vostre previsioni potrebbero avere sui mercati?

Tradizionalmente economia e finanza vengono considerate separate ma in realtà non è così, perché in realtà ci sono importanti connessioni. Economic Complexity si basa sull’economia fondamentale, le previsioni hanno la massima probabilità di essere verificate in un arco che va dai 3-5 ai 7 anni. Si valuta la capacità industriale di un paese e si osserva l’evoluzione su un arco che di tempo che avrà un impatto sulla finanza sul lungo periodo. L’impatto è sano perché se un soggetto ha una capacità produttiva fondamentale buona avrà successo. Economic Complexity premia queste caratteristiche, privilegiando l’economia reale rispetto alle speculazioni finanziarie. In un certo senso favorisce scelte più etiche…

Il passaggio dal “livello paese” al “livello azienda” è una prospettiva concreta per il vostro algoritmo? A che punto è lo sviluppo?

Un paese è come una foresta, un’ecosistema esteso e complesso. La sua stabilità è dovuta a diversi elementi e in questo caso economic complexity funziona bene. Un’azienda invece è come un animale individuale che deve mangiare ogni giorno e fronteggiare gli altri animali diretti competitori. Quindi un paese, per sua natura diverso dal punto di vista ecologico (e anche matematico) da un’azienda, richiede un’ottimizzazione sostanzialmente diversa. I nostri metodi oggi sono ottimizzati a livello paese, ma alcuni elementi valgono anche per le aziende. In futuro contiamo di estendere il metodo in modo sistematico anche per le aziende.

luglio 2017


La formula vincente. Per migliorarsi, il calcio dà i numeri

Rebecca De Fiore, Il Pensiero Scientifico Editore

Il talento, la classe di un giocatore, le decisioni di un bravo allenatore sono tutte componenti fondamentali per costruire una squadra di successo. Ma è possibile migliorare le prestazioni con numeri, dati e statistiche? Negli ultimi anni, con la rivoluzione dei big data applicati allo sport, si sta provando a rispondere a questa domanda.

Nel calcio, a differenza che negli altri sport, l’analisi statistica ha incontrato numerose resistenze. Su tutte quelle degli allenatori, preoccupati che il loro lavoro potesse essere messo in discussione. È famosa la risposta che diede Harry Redknapp quando era allenatore del Southampton all’analista Simon Wilson dopo una sconfitta: “Facciamo così, la prossima volta facciamo giocare il tuo computer contro di loro e vediamo chi vince”. Ma soprattutto bisogna considerare che il calcio è uno sport estremamente complicato da prevedere ed è definito da eventi rari: i goal. Se nel basket si tira circa 123 volte in una partita, nel calcio si tira solo poco più di 12 volte. E se nel football americano si segna in media una volta ogni 9 minuti, nel calcio una squadra segna un goal ogni 69. Per questo la scienza dei dati ha impiegato molto più tempo a diffondersi nel mondo del pallone. Ma oggi, con l’avvento dei big data, anche nel calcio si stanno iniziando a capire le potenzialità dell’analisi statistica.

Ogni anno vediamo spuntare nuovi aspetti, vediamo progressi rapidi, che ci allontanano sempre più dall’approccio di colui che possiamo considerare il primo analista calcistico della storia, Charles Reep, un contabile arruolato nell’aeronautica. Nel primo dopoguerra, dopo una chiacchierata con Charles Jones, capitano dell’Arsenal di Herbert Chapman, al ragioniere venne voglia di applicare la contabilità al calcio, di cui era appassionato. Nel corso della sua vita scrisse di oltre 2200 incontri, dedicando a ciascuno circa 80 ore. Reep riuscì a dimostrare che soltanto due goal ogni nove nascevano da azioni con più di tre passaggi consecutivi. Dunque, pochi passaggi, lanci lunghi e rapidi contropiedi: le sue conclusioni furono talmente popolari da determinare la verticalità del calcio inglese. Oggi il computer ha sostituito il taccuino, ma il data analyst è diventata una delle figure più richieste nel mondo del pallone.

Nei paesi anglosassoni, tutti i club professionistici hanno a disposizione un data analyst, dotato di un’ottima formazione matematica e statistica, ma spesso con scarse conoscenze calcistiche e tattiche. In Italia, invece, nell’ultimo anno sta acquisendo sempre più rilievo la figura del match analyst. Oltre che avere competenze matematiche, è un allenatore a tutti gli effetti. Non si limita ad analizzare i dati che gli vengono messi a disposizione, ma lavora anche sui video e sulla preparazione tattica delle partite. Analizza l’avversario, le partite specifiche, ma anche l’atteggiamento dei singoli giocatori e le sedute di allenamento.

Se l’analisi applicata al calcio è arrivata anche in Italia, lo si deve a un allenatore in particolare: Arrigo Sacchi. A proposito della sua rivoluzione tattica, Daniele Morrone scrive su l’Ultimo uomo: “La rottura dei paradigmi esistenti effettuata da Arrigo Sacchi ha spinto il dialogo tattico in avanti come, prima di lui, aveva fatto solo l’Olanda del calcio totale. In ambito nazionale, ha portato al cambiamento di un modo di pensare calcio che sembrava insito nella natura stessa della scuola italiana, nel codice genetico degli allenatori italiani, cioè, proiettandola prima in quello che sarebbe diventato il calcio un decennio dopo”. Ed è proprio con questa rivoluzione di fine anni ottanta che sono cambiati anche i metodi di lavoro che hanno portato nel tempo a un utilizzo massiccio delle tecnologie nel mondo del calcio.

Le prime aziende a essere nate in Italia sono la Digital soccer, bresciana, e la Sics di Bassano del Grappa, che oggi sviluppa programmi di video-analisi avanzati per poter analizzare anche le singole prestazioni. Poi è nata anche la Wyscout che, con clienti come Barcellona, Liverpool e Boca Juniors, si è imposta diventando la principale protagonista nel settore dello scouting dei giocatori e dei giovani per il mercato calcistico. La Juventus è stata il primo club in Italia a dotarsi di uno staff di match analyst a tempo pieno e oggi ha a disposizione quattro analisti, coordinati da Riccardo Scirea, che analizzano attentamente le partite della prima squadra fino a quelle delle giovanili. È la Roma, invece, la squadra che sfrutta maggiormente i dati statistici nel settore scouting in fase di calciomercato, grazie anche all’impegno della società americana, più vicina culturalmente allo sfruttamento dei big data.

Nel corso degli anni, però, l’obiettivo dell’analisi statistica è cambiato. Se Reep voleva aiutare le squadre a migliorarsi basandosi su convinzioni che già aveva, oggi si cercano di sfruttare i dati per stabilire se ciò che diamo per scontato sul calcio è vero. Non si usano più i numeri per dimostrare una teoria, ma per capire cosa ci dicono e che direzione prendere.

Football analytics è una disciplina in cui il modo col quale una squadra gioca suggerisce quali statistiche vanno studiate perché sono significative.
− Joao Medeiros, Wired

Analizzando i risultati dei quattro principali campionati europei (Premier league, Bundesliga, Liga e Serie A), è venuto fuori che in media la squadra che segna di più in una stagione vince il campionato circa la metà delle volte (51 per cento), mentre la squadra con la miglior difesa circa il 46 per cento. Dunque, è vero che segnare più goal di tutti in un campionato dà probabilità leggermente più alte di vincere il titolo rispetto a subirne di meno, ma sembrerebbe non essere così efficace. In Premier league, infatti, segnare dieci goal in più riduce il numero di sconfitte dell’1,76 per cento, mentre subire dieci goal in meno le riduce del 2,35 per cento. Così, se quello che conta è evitare una sconfitta, se hai una buona retroguardia aumentano le possibilità di vincere il titolo o di salvarsi. E questo è solo un esempio delle indicazioni che può dare l’analisi statistica. I big data applicati al calcio ci insegnano che tenere palla, completare più passaggi, non cederla troppo spesso all’avversario significa più vittorie, più punti e più successi. Ci insegnano che l’89 per cento dei calcio d’angolo va sprecato e che la squadra che tira per prima ai calci di rigore vince in oltre il 60 per cento dei casi.

Quello che è fondamentale capire è quanto questi dati influiscono o dovrebbero influire sulle decisioni di un allenatore. Da sempre gli allenatori raccolgono le informazioni nei modi più tradizionali, parlando con osservatori e collaboratori o seguendo gli allenamenti, e continuare a farlo è importante. Ma per prendere le migliori decisioni possibili gli allenatori devono attingere anche a fonti di dati oggettivi. E qui entrano in gioco i numeri. La difficoltà, oggi, sta nel capire cosa è davvero necessario: di dati ne hanno in abbondanza, la parte fondamentale è saperli leggere.

La sensibilità di un allenatore sarà sempre fondamentale nei processi decisionali, ma non si potrà più non sfruttare anche l’oggettività dell’analisi statistica.

Insomma, è davvero iniziata la rivoluzione dei big data nel calcio? La risposta ce la dà Antonio Gagliardi, match analyst della Nazionale italiana dal 2010, che in un articolo per l’Ultimo uomo scrive: “Credo che la rivoluzione dei big data nel calcio sia definitivamente esplosa e sia ormai irreversibile, gli addetti ai lavori che sceglieranno di non cavalcare e percorrere questa strada rimarranno semplicemente indietro. L’occhio, la sensibilità, l’intuizione di un allenatore o di un direttore sportivo saranno sempre importanti e fondamentali nei processi di scelta ma non si potrà non sfruttare il vantaggio di uno studio e di una rielaborazione attenta dei dati statistici”.

luglio 2017


Le scelte del Mister

Dati e statistiche insieme all’intuizione per valutare acquisti, strategie di campo e calci d’angolo

Intervista a Chris Anderson, senior partner Anderson Sally Llc, già professore alla Cornell university, già managing director Coventry City football club

Chris Anderson, David Sally – Tutti i numeri del calcio

Per poter capire più a fondo la rivoluzione dei big data applicati al mondo del calcio e, soprattutto, quanto i dati e l’analisi statistica incideranno sulle decisioni di un allenatore, abbiamo intervistato Chris Anderson, autore, insieme a David Sally, di Tutti i numeri del calcio.

Qual è l’equilibrio tra innovazione e tradizione nel mondo del calcio?

L’asse della bilancia è ancora fortemente spostato a favore della tradizione. Si tratta di un’industria conservatrice dominata da insider che sono cresciuti nello sport e sono diventati esperti di un determinato modo di lavorare e fare le cose. E in parte è curioso perché il calcio è anche un settore molto competitivo, ma ciò non si è tradotto in una diffusa apertura verso l’innovazione tecnologica. L’innovazione – nella misura in cui esiste nello sport – è invece arrivata dall’interno: in genere da allenatori con una mentalità aperta, che vogliono lavorare in modo diverso e che stanno cercando modi diversi per vincere. Ma spesso ciò ha significato innovazione per quanto riguarda il modo di giocare e non gli strumenti decisionali che stanno sì cambiando, ma lentamente. Alcuni club come la Roma stanno provando a innovarsi. Tuttavia non c’è stato un moneyball moment nel calcio, in parte perché provare nuove cose può essere rischioso e nel calcio rischioso può significare relegazione. Quindi c’è un’avversione al rischio insita nell’essenza stessa della competizione, accanto alla realtà per cui, nel calcio, un’alternativa alla vittoria dovuta all’essere più intelligenti è una vittoria dovuta all’aver speso più soldi. In conclusione, questo vuol dire che per ora la tradizione continua a dominare l’innovazione.

Pensa che un giorno il data analyst potrà gestire direttamente una squadra di calcio?

No. Non presto almeno, e non credo che dovrebbe. I requisiti della raccolta e dell’analisi dei dati non riescono ancora a colmare la distanza che li separa dall’abilità di generare quelle intuizioni necessarie per gestire tutti gli aspetti di un club professionistico. Secondo me, allenare una squadra di calcio sarà sempre un mix di arte e scienza e, idealmente, sarà una combinazione di computer ed esperienza a guidare le decisioni.

In che misura i dati guidano effettivamente le decisioni di un allenatore? Come possono aiutarlo?

Attualmente i dati guidano le decisioni di un allenatore solo in misura molto limitata. La maggior parte delle decisioni prese dagli allenatori riguarda quale giocatore comprare e come allenare; come e chi far giocare è basato su strumenti e intuizioni più tradizionali. L’analisi può contribuire a rendere più efficace il lavoro di un allenatore (riducendo, ad esempio, la quantità di tempo trascorso a guardare video) e rendendolo più efficace (individuando nei dati le tendenze e i modelli che l’occhio umano e il cervello non sono equipaggiati a rilevare).

Allenare una squadra di calcio sarà sempre un mix di arte e scienza.

Quali sono i limiti principali della data analytics?

Il calcio usava solitamente dati di scarso valore. Ciò è cambiato radicalmente negli ultimi vent’anni, così come la nostra capacità di elaborare e analizzare questi dati. Attualmente, i limiti della data analytics riguardano molto meno la tecnologia e la qualità e la quantità dei dati, ma piuttosto come le analisi vengono usate dai footbal decision – la qualità e la natura dei processi di gestione e decisione che utilizzano l’analisi. Oggi, l’analisi non è un problema di tecnologia ma di gestione.

luglio 2017

0 Comments

Leave A Comment

Lascia un commento

Iscriviti alla newsletter di Forward

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

Pin It on Pinterest

Share This