• Background Image

    Nella rete della disinformazione

30 ottobre 2018

Nella rete della disinformazione

La sfera emozionale della disinformazioneIntervista a Walter Quattrociocchi
Come si alimenta una falsa credenzaIntervista di Sergio Della Sala a Stephan (Steve) Lewandowsky
Dalla postverità al postare la veritàAlessandro Rosa

La sfera emozionale della disinformazione

Dal pregiudizio di conferma all’eco chamber, dalla polarizzazione delle narrazioni alla loro strumentalizzazione

Intervista a Walter Quattrociocchi, Responsabile Laboratory of data science and complexity Università Ca’ Foscari, Venezia

Iniziamo dall’espressione “fake news”. Che cosa intendiamo per fake news?
Una comunicazione scorretta di un problema che è molto più complesso e più articolato, quale conseguenza dell’effetto della disintermediazione prodotto dai social e del suo impatto sul business model della informazione.

Le informazioni false ci sono sempre state anche nell’era della comunicazione analogica. Ciò che fa la differenza oggi è il mezzo in cui circolano che ne amplifica e velocizza la diffusione e, allo stesso tempo, rende alla portata di tutti smascherare il falso verificando i fatti e le fonti?
Il presupposto che il web e la diffusa accessibilità delle fonti rendano più semplice svelare le notizie false è una fake news. La rete e i social network hanno avuto un ruolo determinante nell’abbattere le barriere della fruizione dell’informazione: sono aumentate esponenzialmente la quantità di informazione e la velocità con cui si diffonde, ed è venuta meno la fi gura dell’intermediario e dell’esperto. La filiera della informazione è completamente cambiata: si è passati dal meccanismo dell’agenda setting in cui pochi professionisti selezionavano gli argomenti “notiziabili” alla condizione in cui tutti gli utenti stessi da un lato possono ricoprire il ruolo di emittenti dell’informazione e dall’altro hanno un ruolo determinante nella popolarità dei contenuti.

I vostri studi dimostrano che in questo ambiente ibrido si crea inevitabilmente una echo chamber. Ce lo può spiegare?
Su Facebook e Twitter prendono forma due narrazioni, quella ufficiale e quella populista più emotiva. L’utente tende a cercare l’informazione a supporto della narrazione che più lo aggrada e a ignorare la narrazione antagonista. E così si crea l’echo chamber, uno spazio nel quale le opinioni scambiate si confermano le une alle altre. Il determinante è la polarizzazione: più alta è la polarizzazione dell’argomento e più è probabile che si formi l’echo chamber. Abbiamo riscontrato che questa dinamica accomuna tutte le discussioni che avvengono online, dalla Brexit al referendum costituzionale fi no ai vaccini.

Paradossalmente la rete non dovrebbe favorire la curiosità e con essa il superamento dei confini dei propri pregiudizi?
La rete favorisce la curiosità mettendo a disposizione una quantità di informazioni che prima non c’erano. Ma il fruitore di news sceglie più sulla base della propria emotività che della razionalità, andando alla ricerca involontariamente di quelle informazioni che più gli piacciono e che più gli danno fiducia: è il cosiddetto bias di conferma. Ciò che guida l’essere umano è un driver evolutivo e autoconservativo che molto semplicemente cerca di soddisfare i propri bisogni i quali, anche per come si formano, hanno poco a che fare con il razionale. Pensare di poter superare il pregiudizio è un po’ ingenuo perché siamo tutti, in un certo grado, esseri irrazionali. La possibilità di essere esposti a più punti di vista grazie alla rete sembra non fare altro che radicare le nostre posizioni invece che aprirci ad altri mondi.

Queste dinamiche favoriscono la proliferazione di notizie non verificate e contribuiscono a generare la disinformazione digitale…
Il problema non è la maggiore circolazione di informazioni false o prive di verifica all’interno del circuito informativo, ma l’aumento della polarizzazione, cioè l’estremizzazione delle opinioni degli utenti, e l’uso strumentale che viene fatto delle discussioni sui temi importanti come per esempio la geopolitica e le questioni sociali. Siamo infatti in un contesto in cui gli utenti possono accedere alle fonti di informazioni che preferiscono, unirsi alle persone che condividono la loro posizione e insieme cooperare per strutturare e rinforzare la narrativa condivisa, non importa se l’informazione utilizzata dal supporto sia vera o falsa.

Il problema non è la circolazione di informazioni false o prive di verifica ma l’estremizzazione delle opinioni degli utenti e l’uso strumentale che ne viene fatto.

Non c’è modo di disinnescare questo meccanismo? Per esempio, non si può fare cambiare idee agli utenti dei social contrapponendo informazioni basate sui dati scientifici o correggendo notizie false per mezzo di dati?
Assolutamente no. Più alto è il coinvolgimento dell’utente sulla problematica, più alta è la resistenza. C’è chi propone di contrastare il problema delle fake news con attività di fact checking e di debunking, ma abbiamo evidenze empiriche che dimostrano come oltre a non risolverlo lo accentua no. L’istituzione di un sistema che distingue l’informazione falsa da quella vera o che smonta le argomentazioni contrarie attraverso delle prove andrebbe a creare un’ulteriore polarizzazione che come dicevamo è la causa stessa delle false informazioni: l’utente che aveva pregiudizi continuerà a rifiutare la fi gura istituzionale o giornalistica che diffonde una narrazione percepita come antagonista. Abbiamo una fake news che è una ripetizione sbagliata, abbiamo un antidoto a un problema sbagliato che neanche risolve quel problema, stiamo quindi creando una narrazione fake. Credo che sia irrealizzabile un controllo dei contenuti su internet né sia possibile limitare la libertà di espressione. Il problema da risolvere è la mancanza di fiducia negli organi istituzionali. Quello che gli utenti chiedono è una maggiore trasparenza: se la scienza è fatta bene non avrà paura di mettersi in discussione, urlare che è stato affermato il falso non farà altro che aumentare quella polarizzazione ormai radicalizzata.

Quindi la parola chiave per recuperare la fiducia degli utenti è “trasparenza”…
Credo ma non ne ho la certezza.

Serve ricostruire la fiducia tra le istituzioni e gli utenti.

Nel libro Liberi di crederci affermate che il dibattito sulle fake news sta diventando esso stesso una fake news. Dobbiamo credervi?
Il dibattito sulle fake news è in parte un atto strumentale per un establishment che fa fatica a integrarsi con i cambiamenti che avvengono a livello globale. Davanti al “supermercato dell’informazione” la risposta più intelligente è stata quella di etichettare con un bollino le persone più brave a verificare le informazioni. Questo è un paradosso mostruoso, nonché molto ignorante. Da tempo abbiamo superato il positivismo: sappiamo che la realtà è articolata e complessa e che la scienza stessa evolve secondo il criterio di falsificabilità e non per induzione. Quindi proporre qualcuno che si metta sul trespolo per giudicare cosa è vero e cosa è falso – data a monte una realtà così incerta – è una contraddizione: primo per l’impossibilità di “certificare” questioni complesse; secondo perché questa pretesa, a mio avviso, è in un certo qual modo strumentale a mantenere condizioni pregresse che ormai non sono più riconosciute. Come dicevo abbiamo perso l’autorevolezza delle istituzioni e invece di recuperarla costruendo un rapporto di fiducia con gli utenti si ricorre al dogmatismo. Proporre la scienza sulla base di un dogmatismo che si pretenderebbe “scientifico” è una contraddizione in termini.

Secondo Evgeny Morozov le fake news si collegherebbero alle questioni di potere dei grandi media company della Silicon Valley, e per contrastare il “mercato” delle fake news dovremmo combattere il capitalismo digitale. Condivide la posizione del sociologo bielorusso?
Il fenomeno delle fake news è un fenomeno embedded nell’essere umano che ha bisogno di informazioni che completino la sua visione parziale sulla realtà: è un meccanismo cognitivo. Quando vivevamo nelle caverne e sentivamo i fulmini non avevamo cognizione dell’elettrostatica ed era più facile pensare che fosse Zeus arrabbiato con noi. Di fronte a questi meccanismi molto complessi e articolati in cui non esiste un processo di evoluzione lineare è facile pensare che sia colpa di qualcuno. Ma chi pro pone queste soluzioni mette in atto gli stessi meccanismi che vuole combattere. Decidere di combattere le fake news chiudendo i social sarebbe come cercare di svuotare il mare con un bicchiere.

Quale soluzione allora?
Noi stiamo conducendo degli studi per monitorare le dinamiche della polarizzazione ed eventualmente per capire come abbassarla. Abbiamo già raccolto dei primi segnali ma servirà ancora del lavoro per poter arrivare a dei risultati definitivi. La questione è che il pregiudizio di conferma è un nostro meccanismo innato di difesa che non possiamo di certo modificare. Dovremmo quindi da un lato puntare alla formazione dei cittadini, a partire dalla scuola, per sviluppare una maggiore capacità di discernimento sulle informazioni veritiere attraverso lo studio della logica e del pensiero formale, dall’altro progettare una comunicazione più efficace.

Per concludere, considera la verità un’utopia?
Quello della verità è un concetto profondo molto dibattuto. Il modo di vedere la realtà si basa su percezioni e queste percezioni sono a loro volta influenzate dal nostro sistema cognitivo che non è esente da bias, scorciatoie ed errori. Possiamo cercare di correggerci riconoscendo però i nostri limiti cognitivi. L’idea che l’essere umano possa avere un accesso completo alla verità è un po’ utopistica. Pensare che esistano per ogni cosa delle verità assolute è un’assunzione forse errata e in totale contrapposizione con il metodo scientifico che ci porta a conoscere la realtà. Il concetto fondativo della scienza è l’incertezza, il dubbio.

ottobre 2018


Come si alimenta una falsa credenza?

Perché è difficile sfatare il mito, perché è così difficile contrastare la disinformazione

Intervista a Stephan (Steve) Lewandowsky, School of psychological sciences University of Bristol Conversazione con Sergio Della Sala, Human cognitive neuroscience University of Edinburgh, Presidente Cicap

Parliamo con il professor Stephan (Steve) Lewandowsky del suo Manuale della demistifi cazione (The debunking handbook, nella versione originale). Steve è attualmente professore di psicologia cognitiva all’università di Bristol in Gran Bretagna, ma è australiano e ha lavorato per molti anni all’università della Western Australia, a Perth. Steve studia come la disinformazione si propaga nella società e come le persone percepiscono e ricordano informazioni scientifiche, che riguardano per esempio le vaccinazioni o i cambiamenti climatici [1]. Il suo manuale può essere scaricato gratuitamente nelle diverse lingue in cui è stato tradotto, tra cui l’italiano [2].

Steve, insieme a John Cook, hai pubblicato un meraviglioso, breve e incisivo Manuale della demistificazione. Cosa vi ha spinto a scriverlo?
John e io eravamo allo stesso tempo affascinati e spaventati dalla quantità di disinformazione che permea la società contemporanea, dai vaccini al cambiamento climatico, all’idea che il presidente Obama non sia nato negli Stati Uniti e che siano state trovate armi di distruzione di massa in Iraq dopo l’invasione del 2003. Non stupisca che il World economic forum abbia identificato la disinformazione online come uno dei dieci top trend del 2014. Ci siamo sentiti in dovere di creare un antidoto, perché c’è parecchia conoscenza scientifica che spiega come sfatare la disinformazione.

Nel vostro manuale affermate che è difficile sfatare un mito. Perché è così complesso cancellare la disinformazione?
Penso che la ragione principale sia che quando le persone ottengono un’informazione, costruiscono quello che chiamiamo un “modello mentale” di una situazione, una storia ben radicata, se vuoi, nella propria testa. Ora, se vai a dire a una persona che parte di questo modello è falso, risulta difficile costruire un modello mentale che abbia un “buco”. La gente preferisce un modello errato a uno incompleto.

C’è, paradossalmente, il rischio di rafforzare un mito semplicemente parlandone?
Sì. Ci sono molti modi in cui un tentativo di correzione può di fatto avere il risultato opposto. Forse il più importante di questi “ritorni di fiamma” è proprio legato alla visione del mondo di ognuno di noi. Qualora la correzione sfidi delle credenze profondamente radicate, le persone possono reagire “puntando i piedi” e incrementare la propria fede in questo concetto. Per esempio, quando si dice a un repubblicano che non sono state trovate armi di distruzione di massa in Iraq nel 2003, è molto probabile che questi creda esattamente il contrario; allo stesso tempo la probabilità che una persona che teme effetti collaterali dei vaccini si faccia vaccinare diminuisce tanto più quanto più gli viene detto che sono innocui.

Quindi i vari festival della scienza, che stanno spuntando come funghi, potrebbero avere effetti negativi?
No, non penso che sia una deduzione valida. Una cosa che sappiamo è che i “ritorni di fiamma” si hanno quando le interazioni sono casuali e superficiali: ciò che una persona crede non viene modificato da una sola storia o da una rapida intervista sentita in radio. Tuttavia, quando si forniscono informazioni in maniera approfondita e ben pensata, allora le persone possono aggiornare i loro ricordi. C’è, di fatto, una buona evidenza che uno dei modi migliori di insegnamento in classe sia quello di presentare informazioni errate e farle analizzare; l’apprendimento procede tramite la scoperta che qualcosa è sbagliato.

Nella tua analisi sui problemi in cui si incappa qualora si cerchi di combattere la disinformazione hai esaminato una serie di tipici effetti boomerang. Puoi, per piacere, spiegarceli? Iniziamo dal cosiddetto “effetto familiarità”: di cosa si tratta? Che prove sperimentali hai per dimostrarne l’esistenza?
L’effetto boomerang di “familiarità” si basa sull’idea che ripetendo una storia, la vado rinforzando nella testa delle persone. Per esempio se delle informazioni sanitarie venissero presentate in questo modo: “Mito: i vaccini hanno seri effetti collaterali. Fatto: i vaccini hanno effetti collaterali trascurabili”, la discussione di questo mito potrebbe avere l’effetto collaterale di rinforzarlo, negando quindi la correzione giustapposta. Non si tratta di un effetto sistematico: colpisce particolarmente le persone che non prestano particolare attenzione e solo dopo un certo lasso di tempo (durante il quale l’informazione corretta viene dimenticata, ma il mito resta in mente).

Questo potrebbe quindi spiegare come mai alcune persone non capiscono che la stampa anti-vaccini sia profondamente disinformata?
Penso che nel caso dei vaccini il problema sia dovuto solo in parte all’effetto di familiarità. Secondo me la componente principale è l’effetto “visione globale”: alcune persone diffidano profondamente delle multinazionali farmaceutiche. Per queste persone i vaccini possono tranquillamente essere un prodotto spinto da Big pharma e dalla ricerca del profitto, quindi facilmente tenderanno a rifiutare informazioni circa l’utilità e la mancanza di pericoli dei vaccini.

Ci puoi spiegare un po’ meglio questo effetto che chiami “visione globale”? A cosa si riferisce? Ci sono modi di evitarlo?
Lo si può evitare riformulando, ove possibile. Per esempio, se la salvaguardia del clima viene presentata come un’opportunità di business (per l’industria nucleare, ad esempio), allora alcune persone che sarebbero contrarie alle politiche di controllo degli inquinanti avrebbero una maggior possibilità di cambiare idea e diventare a favore della protezione del clima. Un’altra possibile strategia è quella di chiedere all’interlocutore di esporre, innanzitutto, la propria visione globale: se viene data a una persona la possibilità di sentirsi a proprio agio con la propria visione globale (per esempio il fatto che siano degli imprenditori), allora saranno meno restii a correggerla, perché queste modifiche sembreranno loro meno minacciose. Un altro modo è quello di non parlare proprio dell’argomento: invece di parlare del riscaldamento climatico, provate a discutere di quanto siano vantaggiose le auto elettriche e i pannelli solari.

Nel vostro manuale, menzionate anche l’effetto “eccesso”. Di che si tratta? Come può evitarlo una persona che voglia combattere a favore di un’informazione basata sui fatti?
L’idea sottostante l’effetto “eccesso” è che, in genere, si preferisce una situazione semplice a una complessa. Ergo un mito semplice resta meglio in mente di una spiegazione complessa che lo corregga. Tuttavia, da quando abbiamo scritto il manuale, sono venute alla luce delle prove che dimostrano come questo effetto non colpisca sempre: abbiamo trovato in alcuni (non molti) esperimenti che “troppo è meglio”; cioè, l’aumentare del numero di argomentazioni che smentiscono un mito influisce sull’atteggiamento degli ascoltatori. È un’area di ricerca ancora attiva e non sono più così sicuro che questo effetto sia davvero un problema.

Quali sono le tecniche retoriche che si dovrebbero conoscere a fondo per disseminare scienza?
Ci si potrebbero riempire tomi e tomi, con la risposta. Mi vengono in mente alcuni principi generali. Non abbiate paura di ripetervi. Siate semplici. Non usate l’incertezza come argomento. Quest’ultimo punto è particolarmente importante: invece di dire “i risultati sono incerti” prima di esporre quanto conosciamo, perché non fare il contrario? Non c’è nulla di male nell’iniziare con quanto si sa e poi passare a quanto di incerto vi sia ancora.

E quali sono gli errori da evitare?
Un altro argomento da trattare in vari volumi. Come base direi l’opposto della mia ultima risposta: non iniziate con l’incertezza, non siate troppo sfumati, non abbiate timore dei dati (sempre che siano veritieri, ovviamente!). In aggiunta, gli scienziati devono rendersi conto che dietro alle domande, a volte, ci sono dei motivi nascosti: per esempio, come rispondereste alla famosa domanda “Hai smesso di picchiare tua moglie?”. Un esempio simile in campo scientifico potrebbe essere “Come mai il riscaldamento globale si è fermato”? (non si è fermato).

In che misura l’insieme della disinformazione che ci colpisce da ogni parte è imputabile alla leggerezza con cui i giornalisti trattano la scienza?
I mezzi di comunicazione hanno una grossa responsabilità, ma ci sono anche i social media e la controcultura fatta da blog pseudoscientifici, e altro. Specialmente riguardo i vaccini e il cambiamento climatico, una ricerca con Google risulterà in un ammontare simile (nella migliore delle ipotesi) stupidaggini e di riferimenti di qualità. Pensare a come gestire questo problema è una grossa sfida. Google sta valutando l’inserimento di un “punteggio di affidabilità” al suo ranking, che mi sembra molto promettente, ma allo stesso tempo potenzialmente problematico quando non c’è unanimità sulla definizione di fatto. 

Puoi farci un esempio di disinformazione generata dall’urgenza giornalistica di abbellire e spingere una storia?
Pensiamo alla risposta all’infame articolo di Lancet che nel 1998 suggeriva un collegamento tra vaccini e autismo. Questo tema venne “sfruttato” dai tabloid inglesi, portando a un declino nei tassi di vaccinazione, anche dopo che si è chiaramente dimostrato come il risultato iniziale fosse errato. È interessante notare che questo non successe negli Stati Uniti, perché i media non dimostrarono un grande interesse per questa storia.

E in che parte la disinformazione è dovuta agli scienziati stessi che esagerano l’impatto delle proprie scoperte oppure forniscono opinioni travestite da fatti?
Ottima domanda, per cui non ho dati quantitativi, ma è chiaro come alcuni annunci stampa siano chiaramente fuorvianti. Gli scienziati hanno la responsabilità di garantire la precisione dei comunicati stampa sul proprio lavoro. In base alla mia esperienza, le università sono ben felici di lasciare agli autori stessi la stesura dei comunicati stampa. Gli scienziati devono prendere questo compito seriamente e comportarsi secondo le proprie responsabilità.

Pensi che il prendere decisioni basate su prove e su informazioni dettagliate debba essere uno dei pilastri della democrazia?
Sì. La democrazia, tra le altre cose, è basata sul teorema di Condorcet, che afferma che le maggioranze convergono su una decisione corretta anche se tutti i membri di un collettivo (una giuria o una popolazione) hanno una conoscenza imperfetta. Tuttavia questo funziona solo se le opinioni della gente non sono precondizionate sistematicamente in direzione errata.

Il vostro manuale ha ormai tre anni: ci sono studi recenti che confermano alcune delle affermazioni che avete fatto?
Ci sono molte più ricerche disponibili oggi e John e io stiamo pensando di aggiornarlo. Ci sono anche parecchie cose che non sono cambiate. Le due cose su cui sono, ora, più scettico sono l’effetto “familiarità” e quello “eccesso”. Sembrano entrambe essere molto labili. Allo stesso tempo la mia fiducia nell’effetto “visione globale” è aumentata di parecchio: sembra essere davvero robusto.

Note

Questa intervista è stata originariamente pubblicata sul sito del Cicap (www.cicap.org) con il titolo Come si argomenta contro una falsa credenza? Ne parliamo con Steve Lewandowsky. Alla conclusione del colloquio Lewandowsky suggeriva queste letture per approfondire il fenomeno della resistenza della disinformazione alle smentite:

– Lewandowsky S, Ecker UKH, Seifert C, et al. Misinformation and its correction: continued infl uence and successful debiasing. Psychol Sci Public Interest 2012;13:106-31.
– Cook J, Ecker UKH, Lewandowsky S. Misinformation and its correction. In: Kosslyn S. Emerging trends in the social and behavioral sciences. Hoboken, NJ: John Wiley and Sons, 2015.
– Ecker UKH, Lewandowsky S, Chang EP, Pillai R. The effects of subtle misinformation in news headlines. J Exp Psychol Appl 2014;20:323-35.
– Ecker UKH, Lewandowsky S, Fenton O, Martin K. Do people keep believing because they want to? Pre-existing attitudes and the continued infl uence of misinformation. Mem Cognit 2014;42:292-304.
– Lewandowsky S, Gignac GE, Oberauer K. The role of conspiracist ideation and worldviews in predicting rejection of science. PLoS One 2013;8:e75637.
– Lewandowsky S, Stritzke WGK, Freund AM, et al. Misinformation, disinformation, and violent confl ict: From Iraq and the “War on Terror” to future threats to peace. Am Psychol 2013;68:487-501.

Bibliografia

[1] È possibile vedere l’intero elenco delle pubblicazioni di Steve Lewandowsky qui: http://tinyurl.com/pcnwofu
[2] A questo link è possibile scaricare il manuale nelle diverse lingue, tra cui l’italiano: http://sks.to/debunk

ottobre 2018

Alla ricerca di un’armonia

Sergio Della Sala

In questa conversazione Steve Lewandowsky sottolinea come sia importante capire non solo cosa la gente pensa, ma come pensa. Spesso la comunicazione “anti-bufale” parte dal presupposto che esista una verità, e che noi ne siamo i detentori. Quindi ne diffondiamo il verbo e ci crogioliamo nel numero di persone che accedono ai nostri siti. È possibile però che noi agiamo entro camere dell’eco, bolle mediatiche, in cui persone che la pensano già come noi, consolidano le loro credenze. Otteniamo così l’opposto di quanto ci prefiggiamo: alieniamo proprio quegli utenti a cui vorremmo parlare.

Il modello del deficit di informazione, secondo i cui dettami gli errori che le persone commettono sono dovuti a carenza di informazione (quindi forniamo corretta informazione e risolviamo il problema), ha fallito: anche in presenza di informazioni ritenute corrette le persone raramente modificano le loro credenze o i loro comportamenti. Lewandowsky ci dice che quando una persona ottiene un’informazione ne costruisce un “modello mentale”. Se noi le diciamo che parte di questo modello è falso, le risulterà difficile costruire un modello mentale che abbia un “buco”. La gente preferisce un modello errato a uno incompleto. C’è, paradossalmente, il rischio di rafforzare un mito semplicemente parlandone. Qualora la correzione sfidi delle credenze profondamente radicate, le persone possono reagire incrementando la propria fede nel concetto infondato. Per esempio, quando si dice a un americano repubblicano che non sono state trovate armi di distruzione di massa in Iraq nel 2003, è molto probabile che questi creda esattamente il contrario.

 “Una persona con una convinzione è una persona difficile da cambiare. Ditele che siete in disaccordo con lei, e se ne andrà. Mostrategli fatti e numeri, e metterà in discussione le vostre fonti. Fate ricorso alla logica, e non sarà in grado di capire il vostro punto di vista”. Con queste parole, nel 1956, Leon Festinger propose il concetto di “dissonanza cognitiva”, un meccanismo di cui è dotata la nostra mente per cui la consapevolezza dell’incoerenza tra i nostri atteggiamenti e/o credenze darebbe origine, per l’appunto, a una sensazione di dissonanza e di mancanza di armonia. Per ridurre tale dissonanza, le persone possono attivare diverse strategie cognitive, come quella di evitare o rifiutare le informazioni dissonanti. Nel caso dei vaccini, per esempio, un genitore che non crede nei vaccini e non ha vaccinato i suoi fi gli, per proteggere le proprie credenze radicate e giustificare i suoi comportamenti, tenderà a rifiutare qualsiasi evidenza sull’utilità dei vaccini. Ragioniamo quindi sulla base di pregiudizi.

Per quanto ci dispiaccia ammetterlo, non siamo esseri razionali. L’unico meccanismo di difesa che abbiamo è quello di dotarci di regole esterne a noi, alla nostra percezione, al nostro sistema di credenza. Uno di questi meccanismi di difesa verso gli errori individuali o di società è quello di capire i metodi che le scienze usano per addivenire alle loro conclusioni, per stabilire le evidenze che servono a una società democratica per fare scelte consapevoli.

Immagine festival cicap

Promuovere attraverso la cultura l’idea di una società che basa le sue scelte sulle evidenze, piuttosto che sulle opinioni, è il punto cardine del Comitato italiano per il controllo delle affermazioni sulle pseudoscienze (Cicap) nato nel 1989 per iniziativa di Piero Angela. Tre i valori fondamentali: il valore dei fatti, secondo cui affermazioni e ipotesi immesse nel dibattito pubblico devono essere sostenute da prove; il valore della trasparenza, attraverso un esame aperto delle modalità con cui i fatti vengono costruiti; il valore della responsabilità, che riguarda sia chi produce conoscenza scientifica e tecnica, sia chi opera nel mondo dell’informazione.

Dalla postverità al postare la verità

La lunga ombra delle fake news sui social network

Alessandro Rosa, Dipartimento di epidemiologia, Servizio sanitario regionale del Lazio, Asl Roma 1

In principio era la tradizione orale, poi venne la carta stampata, ben più di recente la televisione, infine i social network. La diffusione di una qualsivoglia notizia è veicolata dall’utilizzo, consapevole o meno, che l’essere umano fa dei mezzi di comunicazione messi a disposizione dal periodo storico contingente. In questa prospettiva, se da un lato la pervasiva “big data era” sembra essere, rispetto al passato, un’inarrestabile e rapidissima generatrice di fake news, dall’altro è interessante sottolineare la natura digitale dei canali nei quali le notizie si propagano, ovvero social network e siti web.

I contenuti prodotti nel web possono diventare dati, analizzabili mediante opportune tecniche informatiche. Pertanto, per uno strano paradosso, se il web produce un numero macroscopico di (ci si augura non solo fake)

Lo studio del Mit
È probabile che queste siano state le premesse con le quali è stata condotta un’interessante ricerca del Massachusetts institute of technology, pubblicata su Science, che si pone l’obiettivo di far luce sui meccanismi di propagazione di false notizie su una piattaforma web di interesse accademico e di ampio utilizzo soprattutto nel mondo anglosassone, quale Twitter [1].

Gli autori dell’articolo, con la collaborazione dell’azienda Twitter, hanno accuratamente esaminato circa 126 mila notizie in lingua inglese pubblicate sul social network da circa 3 milioni di utenti singoli tra il 2006 e il 2017, un arco temporale che copre la quasi totale esistenza della piattaforma. Si è ottenuto un dataset composto da tweet e retweet di 4,5 milioni di contributi. Le notizie estratte sono state suddivise in tre categorie (vere, false, parzialmente vere) sulla base della valutazione di sei organizzazioni indipendenti (si tratta della pratica di fact checking, ovvero il controllo incrociato, da parte di analisti super partes, delle notizie diffuse dai mezzi di comunicazione volto a misurarne l’attendibilità). Tra le analisi svolte, i ricercatori hanno misurato la probabilità con cui un tweet riesca a creare una cascata di retweet; hanno indagato le modalità con cui una notizia vera o falsa si diffonde tra gli utenti, verificando se le notizie false avessero propagazione differenziale per argomento trattato; mediante specifici algoritmi, hanno verificato se una maggior predisposizione al retweet fosse attribuibile ad account riconducibili a persone reali oppure a profili automatizzati, i cosiddetti “bot”.

In sintesi, i principali risultati sono i seguenti: un’informazione falsa è più probabile che sia retwittata rispetto a una vera e avrà una diffusione maggiore (e più in profondità, ovvero attraverso più contatti) rispetto a una vera. La probabilità di retweet è più alta per contenuti giudicati, dagli utenti, nuovi e insoliti. Una notizia certificata come vera si propaga raramente per più di 1000 account, mentre l’uno per cento delle fake news di maggior rilevanza mediatica ne raggiunge fi no a 100.000. Rispetto ai macro-temi, le falsità più virali fanno riferimento al contesto della politica. Ultimo ma non per importanza, un apposito algoritmo ha rivelato che i principali responsabili della diffusione di notizie false siamo, sorprendentemente, noi, utenti reali. I bot, al contrario, diffondono a velocità costante tutte le news, indipendentemente dal fatto che siano o meno fake.

Influencer (in)consapevoli
La disinformazione presente in Twitter viene quindi alimentata da noi utenti, le pulsioni che suggeriscono i meccanismi di propagazione sono prettamente umani. Le ripercussioni, nella vita reale, di tali comportamenti sono un problema forse sottostimato, complesso, di non semplice inquadramento. Le notizie false che diventano virali in quanto auto-confermative dei nostri preconcetti, spinte dall’onda emozionale del sensazionalismo, senza verifica di oggettività, possono come estrema conseguenza confondere l’opinione pubblica, orientare scelte elettorali, delegittimare gratuitamente personalità e istituzioni, banalizzare persino il dibattito scientifico. In una parola, destabilizzare. Basti pensare, per quanto riguarda il caso dell’Italia, alla diatriba del virologo Burioni versus sostenitori anti-vax intorno al delicato tema di salute pubblica dei vaccini. Altro paradosso dei tempi, le fake news possono rappresentare un problema nel breve termine persino per le stesse piattaforme web. Aziende come Twitter e Facebook sono quotate in borsa e la talvolta poco limpida attività di influencer propagatori di fake news può creare, per esempio, un danno di reputazione del servizio stesso.

Intraprendere azioni volte a limitare la diffusione di falsità ha una valenza in primis culturale e va ben oltre la semplicistica emonizzazione di internet e dei social network; l’azione di contrasto richiede una profonda riflessione strategica da parte di decisori politici, mondo accademico e aziende, oltre a un imprescindibile (facile a dirsi) cambio di paradigma da parte della società civile nell’approccio critico alla notizia. Combattere la postverità nello stesso terreno in cui oggi viene alimentata, retwittando i risultati dello studio? Può essere un punto di inizio.

Bibliografia

[1] Vosoughi S, Roy D, Aral S. The spread of true and false news online. Science 2018;359:1146-51.

ottobre 2018

0 Comments

Leave A Comment

Lascia un commento

Iscriviti alla newsletter di Forward

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

Pin It on Pinterest

Share This