Una persona fortemente critica dei vaccini mi spiega le sue ragioni.
Chiedo: «Ma come ti informi su questo argomento?»
Risponde: «Mi hanno bannato da Facebook!»
Sembra difficile da comprendere. Che cosa voleva dire? In questa risposta c’è un sapere implicito da esplicitare. In pratica, quella persona ha risposto:
1. si informava su Facebook
2. non c’è differenza tra informarsi e informare
3. perché l’informazione equivale all’opinione
4. se si scrive qualcosa di vero e controverso Facebook ti banna
5. dunque le mie informazioni sono vere
Si può dire che questa realtà emergente sia una sorta di effetto collaterale delle echo-chamber? Può darsi. Ma è soprattutto un effetto collaterale della polarizzazione delle idee e della segregazione dei gruppi che condividono idee controverse. L’ipotesi in voga è che questo sia conseguenza della struttura delle piattaforme che governano il traffico degli utenti e in parte è probabile. Ma una ricerca del Reuters Institute fa notare alcune possibilità di approfondimento:
a. nei paesi con maggiore polarizzazione politica le notizie dei giornali sono meno credibili
b. gli utenti della rete hanno maggiori, non minori, probabilità di essere esposti a una diversità di punti di vista
È interessante notare anche come l’uso della rete per informarsi sia profondamente diverso nei diversi contesti culturali, quindi ogni generalizzazione va presa con prudenza (in Finlandia i lettori vanno direttamente al sito del giornale, in Cile preferiscono le news che arrivano dal social network, in Polonia si usa di più il motore di ricerca per trovare le notizie, in Giappone ci si affida all’aggregatore automatico di notizie, in Belgio va molto l’email, in Taiwan si preferiscono gli alert sullo smartphone…). Quindi le echo-chamber connesse agli algoritmi delle principali piattaforme sono importanti ma non esauriscono il problema.
Sta di fatto che nei social media – quelli nei quali le persone si incontrano perché si piacciono, non perché vivono nello stesso contesto civico – i filtri alla disinformazione non hanno grande efficacia, secondo una ricerca di Xiaoyan Qiu, Diego F. M. Oliveira, Alireza Sahami Shirazi, Alessandro Flammini, Filippo Menczer pubblicata da Nature. In queste piattaforme una informazione di grande qualità ha le stesse possibilità di diventare virale di un’informazione di bassa qualità. Reuters peraltro fa anche sapere che in termini dinamici, sempre più persone si affidano a qualche forma di algoritmo per arrivare alle notizie. E questo sarebbe compatibile con l’idea che le echo-chamber algoritmiche possano essere in aumento. Ma non sembra il caso. Al contrario i dati del Reuters dicono che l’uso di algoritmi finisce per diversificare le fonti di notizie cui le persone accedono. Ecco l’originale che va letto: «A key question for policy makers is how this shift to discovering content though social media, search, and personalised aggregators is affecting the range and type of news we consume. Does it broaden or narrow our choices? Is it driving more extreme and polarised news? This year we have new evidence that, far from restricting content, algorithms are exposing most users to a greater range of online sources. Users of search, social media, and online aggregation services are significantly more likely to see sources they would not normally use».
Può apparire sorprendente. Ma ci dice che la fonte della polarizzazione è politica e culturale non tecnologica. In un contesto polarizzato e culturalmente debole le persone si ficcano in echo-chamber pericolose per loro e per gli altri. In un contesto nel quale la consapevolezza critica è migliore, la tecnologia non polarizza, anzi…
Ipotesi ulteriore. In Italia, probabilmente, si può dire che la chiusura in tribù mediatiche che si vede anche online nasce dalla riuscita targettizzazione avviata nell’epoca della televisione (della quale gli italiani sono tutt’ora tra i massimi utilizzatori, sia in termini di programmi che in termini di pubblicità), rafforzata dalla polarizzazione politica vissuta negli ultimi venticinque anni che ha abbassato la credibilità di tutto, proseguita sulla rete in un contesto meno digitalmente alfabetizzato che altrove.
Questa ipotesi è relativamente coerente con la diagnosi di Nesta che suggerisce di reagire alle fake news, tra l’altro, con più consapevolezza, difendendo i sistemi di informazione che lavorano con metodo, aumentando l’alfabetizzazione digitale: Four ideas to tackle fake news.
Ciao Luca, mi hai fatto rifettere. Pensavo che ai tempi dei mercati “fisici” quando si esprimeva un’idea non era importante la correttezza “matematica” quanto piuttosto la forza con cui la si raccontava. Vediamo questo processo anche in tv, dove chi urla più forte o con più determinazione “vince” l’approvazione del pubblico. Su facebook questa dinamica è imperante e si fonde con la paranoia (a sua volta derivata dall’ignoranza). Focolai mediatici attorno a moderne cacce alle streghe. Spero che sia solo un periodo di passaggio dovuto alla giovane età della rete.