Le contromisure tentate per combattere il circolare della disinformazione su Internet e sui social media sono molte e diverse – dal fornire informazioni a contenuto educativo, fino a elaborare e insegnare strategie per stimolare il pensiero critico – con diversi livelli di successo. Tra gli strumenti che si pensa possano aiutare a migliorare la qualità dell’informazione che circola sui social media c’è il mostrare agli utenti la valutazione che viene fatta dalle altre persone. In gergo tecnico si chiama “crowsourced fact-checking”, ovvero un controllo di veridicità fatto da una moltitudine di utenti.
Uno studio condotto da Folco Panizza, ricercatore alla Scuola IMT, in collaborazione con colleghi di altre università italiane ed europee, mostra che sapere quello che gli altri pensano dell’accuratezza di un certo contenuto ha un effetto positivo nel combattere la disinformazione – le persone condividono meno contenuti falsi – ma nello stesso tempo mette in mostra un curioso effetto psicologico: gli utenti non si accorgono di essere stati influenzati e sostengono di essere arrivati in autonomia alla loro valutazione e decisione.
Per condurre lo studio, pubblicato sulla rivista Humanities & Social Sciences Communications, i ricercatori hanno reclutato circa mille partecipanti, utenti di Facebook, sottoponendo a ciascuno di loro uno a caso di dieci potenziali post riguardanti informazioni scientifiche in tema di salute e ambiente che erano stati precedentemente valutati su una scala di veridicità da 1 a 6 da un altro gruppo di utenti. Mostrare ai partecipanti quello che gli altri pensavano dell’accuratezza dei contenuti ha influenzato il loro modo di comportarsi: in otto casi su dieci, la valutazione dei contenuti dei post è risultata maggiormente corretta e accurata.
“Quello che lo studio suggerisce è che fornire informazioni, anche in maniera complessa – per esempio quante persone non sono sicure, quante non sono d’accordo e così via – allerta l’utente, che a quel punto, esita o rinuncia a condividere ugualmente il contenuto” osserva Panizza. “Lo studio ci conferma che l’effetto positivo di fornire agli utenti informazioni su quel che gli altri pensano è valido anche nell’ambiente dei social, e conferma anni di ricerche in psicologia. È interessante però notare che chi ha visto queste valutazioni dice di non averne fatto uso, in sostanza di aver deciso da solo, un effetto psicologico che andrebbe meglio indagato e compreso”.
Le piattaforme social hanno fatto negli ultimi anni alcuni esperimenti per applicare alcune di queste strategie e vedere quanto funzionano. Il CEO di Facebook Mark Zuckerberg, per esempio, ha discusso della possibilità di introdurre forme di crowdsourcing su Facebook, mentre Twitter ha introdotto nel 2021 un programma sperimentale chiamato Birdwatch, che permette agli utenti della piattaforma di aggiungere note ai post che giudicano ingannevoli. Il nuovo studio suggerisce e conferma che queste tecniche possano essere utili e funzionare. “Basterebbe per esempio che, quando un utente cerca di condividere un contenuto, gli venisse mostrato – magari in forma grafica semplificata – la frequenza con cui quel contenuto è stato condiviso o ritenuto vero da altri”, osserva ancora Panizza. Queste informazioni potrebbero aiutare a capire come la pensa la maggioranza su un certo argomento, ma anche quanto è diffuso il dissenso, e dunque aiutare a ragionare e, forse, a modificare un comportamento.