Fake e postverità Interviste

Come si alimenta una falsa credenza?

Perché è difficile sfatare il mito, perché è così difficile contrastare la disinformazione.

Intervista a Stephan (Steve) Lewandowsky

School of psychological sciences University of Bristol

By Ottobre 2018Luglio 30th, 2020No Comments

Parliamo con il professor Stephan (Steve) Lewandowsky del suo Manuale della demistificazione (The debunking handbook, nella versione originale). Steve è attualmente professore di psicologia cognitiva all’università di Bristol in Gran Bretagna, ma è australiano e ha lavorato per molti anni all’università della Western Australia, a Perth. Steve studia come la disinformazione si propaga nella società e come le persone percepiscono e ricordano informazioni scientifiche, che riguardano per esempio le vaccinazioni o i cambiamenti climatici [1]. Il suo manuale può essere scaricato gratuitamente nelle diverse lingue in cui è stato tradotto, tra cui l’italiano [2].

Steve, insieme a John Cook, hai pubblicato un meraviglioso, breve e incisivo Manuale della demistificazione. Cosa vi ha spinto a scriverlo?
John e io eravamo allo stesso tempo affascinati e spaventati dalla quantità di disinformazione che permea la società contemporanea, dai vaccini al cambiamento climatico, all’idea che il presidente Obama non sia nato negli Stati Uniti e che siano state trovate armi di distruzione di massa in Iraq dopo l’invasione del 2003. Non stupisca che il World economic forum abbia identificato la disinformazione online come uno dei dieci top trend del 2014. Ci siamo sentiti in dovere di creare un antidoto, perché c’è parecchia conoscenza scientifica che spiega come sfatare la disinformazione.

Nel vostro manuale affermate che è difficile sfatare un mito. Perché è così complesso cancellare la disinformazione?
Penso che la ragione principale sia che quando le persone ottengono un’informazione, costruiscono quello che chiamiamo un “modello mentale” di una situazione, una storia ben radicata, se vuoi, nella propria testa. Ora, se vai a dire a una persona che parte di questo modello è falso, risulta difficile costruire un modello mentale che abbia un “buco”. La gente preferisce un modello errato a uno incompleto.

C’è, paradossalmente, il rischio di rafforzare un mito semplicemente parlandone?
Sì. Ci sono molti modi in cui un tentativo di correzione può di fatto avere il risultato opposto. Forse il più importante di questi “ritorni di fiamma” è proprio legato alla visione del mondo di ognuno di noi. Qualora la correzione sfidi delle credenze profondamente radicate, le persone possono reagire “puntando i piedi” e incrementare la propria fede in questo concetto. Per esempio, quando si dice a un repubblicano che non sono state trovate armi di distruzione di massa in Iraq nel 2003, è molto probabile che questi creda esattamente il contrario; allo stesso tempo la probabilità che una persona che teme effetti collaterali dei vaccini si faccia vaccinare diminuisce tanto più quanto più gli viene detto che sono innocui.

Quindi i vari festival della scienza, che stanno spuntando come funghi, potrebbero avere effetti negativi?
No, non penso che sia una deduzione valida. Una cosa che sappiamo è che i “ritorni di fiamma” si hanno quando le interazioni sono casuali e superficiali: ciò che una persona crede non viene modificato da una sola storia o da una rapida intervista sentita in radio. Tuttavia, quando si forniscono informazioni in maniera approfondita e ben pensata, allora le persone possono aggiornare i loro ricordi. C’è, di fatto, una buona evidenza che uno dei modi migliori di insegnamento in classe sia quello di presentare informazioni errate e farle analizzare; l’apprendimento procede tramite la scoperta che qualcosa è sbagliato.

Nella tua analisi sui problemi in cui si incappa qualora si cerchi di combattere la disinformazione hai esaminato una serie di tipici effetti boomerang. Puoi, per piacere, spiegarceli? Iniziamo dal cosiddetto “effetto familiarità”: di cosa si tratta? Che prove sperimentali hai per dimostrarne l’esistenza?
L’effetto boomerang di “familiarità” si basa sull’idea che ripetendo una storia, la vado rinforzando nella testa delle persone. Per esempio se delle informazioni sanitarie venissero presentate in questo modo: “Mito: i vaccini hanno seri effetti collaterali. Fatto: i vaccini hanno effetti collaterali trascurabili”, la discussione di questo mito potrebbe avere l’effetto collaterale di rinforzarlo, negando quindi la correzione giustapposta. Non si tratta di un effetto sistematico: colpisce particolarmente le persone che non prestano particolare attenzione e solo dopo un certo lasso di tempo (durante il quale l’informazione corretta viene dimenticata, ma il mito resta in mente).

Questo potrebbe quindi spiegare come mai alcune persone non capiscono che la stampa anti-vaccini sia profondamente disinformata?
Penso che nel caso dei vaccini il problema sia dovuto solo in parte all’effetto di familiarità. Secondo me la componente principale è l’effetto “visione globale”: alcune persone diffidano profondamente delle multinazionali farmaceutiche. Per queste persone i vaccini possono tranquillamente essere un prodotto spinto da Big pharma e dalla ricerca del profitto, quindi facilmente tenderanno a rifiutare informazioni circa l’utilità e la mancanza di pericoli dei vaccini.

Ci puoi spiegare un po’ meglio questo effetto che chiami “visione globale”? A cosa si riferisce? Ci sono modi di evitarlo?
Lo si può evitare riformulando, ove possibile. Per esempio, se la salvaguardia del clima viene presentata come un’opportunità di business (per l’industria nucleare, ad esempio), allora alcune persone che sarebbero contrarie alle politiche di controllo degli inquinanti avrebbero una maggior possibilità di cambiare idea e diventare a favore della protezione del clima. Un’altra possibile strategia è quella di chiedere all’interlocutore di esporre, innanzitutto, la propria visione globale: se viene data a una persona la possibilità di sentirsi a proprio agio con la propria visione globale (per esempio il fatto che siano degli imprenditori), allora saranno meno restii a correggerla, perché queste modifiche sembreranno loro meno minacciose. Un altro modo è quello di non parlare proprio dell’argomento: invece di parlare del riscaldamento climatico, provate a discutere di quanto siano vantaggiose le auto elettriche e i pannelli solari.

Nel vostro manuale, menzionate anche l’effetto “eccesso”. Di che si tratta? Come può evitarlo una persona che voglia combattere a favore di un’informazione basata sui fatti?
L’idea sottostante l’effetto “eccesso” è che, in genere, si preferisce una situazione semplice a una complessa. Ergo un mito semplice resta meglio in mente di una spiegazione complessa che lo corregga. Tuttavia, da quando abbiamo scritto il manuale, sono venute alla luce delle prove che dimostrano come questo effetto non colpisca sempre: abbiamo trovato in alcuni (non molti) esperimenti che “troppo è meglio”; cioè, l’aumentare del numero di argomentazioni che smentiscono un mito influisce sull’atteggiamento degli ascoltatori. È un’area di ricerca ancora attiva e non sono più così sicuro che questo effetto sia davvero un problema.

Quali sono le tecniche retoriche che si dovrebbero conoscere a fondo per disseminare scienza?
Ci si potrebbero riempire tomi e tomi, con la risposta. Mi vengono in mente alcuni principi generali. Non abbiate paura di ripetervi. Siate semplici. Non usate l’incertezza come argomento. Quest’ultimo punto è particolarmente importante: invece di dire “i risultati sono incerti” prima di esporre quanto conosciamo, perché non fare il contrario? Non c’è nulla di male nell’iniziare con quanto si sa e poi passare a quanto di incerto vi sia ancora.

E quali sono gli errori da evitare?
Un altro argomento da trattare in vari volumi. Come base direi l’opposto della mia ultima risposta: non iniziate con l’incertezza, non siate troppo sfumati, non abbiate timore dei dati (sempre che siano veritieri, ovviamente!). In aggiunta, gli scienziati devono rendersi conto che dietro alle domande, a volte, ci sono dei motivi nascosti: per esempio, come rispondereste alla famosa domanda “Hai smesso di picchiare tua moglie?”. Un esempio simile in campo scientifico potrebbe essere “Come mai il riscaldamento globale si è fermato”? (non si è fermato).

In che misura l’insieme della disinformazione che ci colpisce da ogni parte è imputabile alla leggerezza con cui i giornalisti trattano la scienza?
I mezzi di comunicazione hanno una grossa responsabilità, ma ci sono anche i social media e la controcultura fatta da blog pseudoscientifici, e altro. Specialmente riguardo i vaccini e il cambiamento climatico, una ricerca con Google risulterà in un ammontare simile (nella migliore delle ipotesi) stupidaggini e di riferimenti di qualità. Pensare a come gestire questo problema è una grossa sfida. Google sta valutando l’inserimento di un “punteggio di affidabilità” al suo ranking, che mi sembra molto promettente, ma allo stesso tempo potenzialmente problematico quando non c’è unanimità sulla definizione di fatto. 

Puoi farci un esempio di disinformazione generata dall’urgenza giornalistica di abbellire e spingere una storia?
Pensiamo alla risposta all’infame articolo di Lancet che nel 1998 suggeriva un collegamento tra vaccini e autismo. Questo tema venne “sfruttato” dai tabloid inglesi, portando a un declino nei tassi di vaccinazione, anche dopo che si è chiaramente dimostrato come il risultato iniziale fosse errato. È interessante notare che questo non successe negli Stati Uniti, perché i media non dimostrarono un grande interesse per questa storia.

E in che parte la disinformazione è dovuta agli scienziati stessi che esagerano l’impatto delle proprie scoperte oppure forniscono opinioni travestite da fatti?
Ottima domanda, per cui non ho dati quantitativi, ma è chiaro come alcuni annunci stampa siano chiaramente fuorvianti. Gli scienziati hanno la responsabilità di garantire la precisione dei comunicati stampa sul proprio lavoro. In base alla mia esperienza, le università sono ben felici di lasciare agli autori stessi la stesura dei comunicati stampa. Gli scienziati devono prendere questo compito seriamente e comportarsi secondo le proprie responsabilità.

Pensi che il prendere decisioni basate su prove e su informazioni dettagliate debba essere uno dei pilastri della democrazia?
Sì. La democrazia, tra le altre cose, è basata sul teorema di Condorcet, che afferma che le maggioranze convergono su una decisione corretta anche se tutti i membri di un collettivo (una giuria o una popolazione) hanno una conoscenza imperfetta. Tuttavia questo funziona solo se le opinioni della gente non sono precondizionate sistematicamente in direzione errata.

Il vostro manuale ha ormai tre anni: ci sono studi recenti che confermano alcune delle affermazioni che avete fatto?
Ci sono molte più ricerche disponibili oggi e John e io stiamo pensando di aggiornarlo. Ci sono anche parecchie cose che non sono cambiate. Le due cose su cui sono, ora, più scettico sono l’effetto “familiarità” e quello “eccesso”. Sembrano entrambe essere molto labili. Allo stesso tempo la mia fiducia nell’effetto “visione globale” è aumentata di parecchio: sembra essere davvero robusto.

Note

Questa intervista è stata originariamente pubblicata sul sito del Cicap (www.cicap.org) con il titolo Come si argomenta contro una falsa credenza? Ne parliamo con Steve Lewandowsky. Alla conclusione del colloquio Lewandowsky suggeriva queste letture per approfondire il fenomeno della resistenza della disinformazione alle smentite:

– Lewandowsky S, Ecker UKH, Seifert C, et al. Misinformation and its correction: continued infl uence and successful debiasing. Psychol Sci Public Interest 2012;13:106-31.
– Cook J, Ecker UKH, Lewandowsky S. Misinformation and its correction. In: Kosslyn S. Emerging trends in the social and behavioral sciences. Hoboken, NJ: John Wiley and Sons, 2015.
– Ecker UKH, Lewandowsky S, Chang EP, Pillai R. The effects of subtle misinformation in news headlines. J Exp Psychol Appl 2014;20:323-35.
– Ecker UKH, Lewandowsky S, Fenton O, Martin K. Do people keep believing because they want to? Pre-existing attitudes and the continued infl uence of misinformation. Mem Cognit 2014;42:292-304.
– Lewandowsky S, Gignac GE, Oberauer K. The role of conspiracist ideation and worldviews in predicting rejection of science. PLoS One 2013;8:e75637.
– Lewandowsky S, Stritzke WGK, Freund AM, et al. Misinformation, disinformation, and violent confl ict: From Iraq and the “War on Terror” to future threats to peace. Am Psychol 2013;68:487-501.

Bibliografia

[1] È possibile vedere l’intero elenco delle pubblicazioni di Steve Lewandowsky qui: http://tinyurl.com/pcnwofu
[2] A questo link è possibile scaricare il manuale nelle diverse lingue, tra cui l’italiano: http://sks.to/debunk

Lascia un commento