Qualità dell’informazione come progetto

Qualità dell’informazione come progetto

Con la vicenda Trump il dibattito sulla disinformazione in rete è diventato imponente. In alcuni post precedenti si sono citati diversi autori che se ne occupano. Le osservazioni più frequenti degli analisti più attenti si concentrano sulla tendenza dei social network a dividere il pubblico in gruppi di persone che si assomigliano rendendo più probabile la diffusione di notizie gradite in quei gruppi, indipendentemente dal fatto che siano vere o false. Molti commentatori meno attenti si limitano a lamentare la disinformazione e a prendersela con internet, il web, la dipendenza dal cellulare, l’indifferenza di Facebook.

Ma il problema è: che cosa facciamo?

Alla radice del problema c’è il fatto che, mentre nell’epoca della scrittura analogica le risorse per la pubblicazione erano scarse e dunque si tendeva a selezionare l’informazione prima di pubblicarla, nell’epoca digitale si tende a scrivere tutto e a selezionare l’informazione dopo che è già stata pubblicata. E poiché la quantità di informazione pubblicata è abnorme, si scrivono algoritmi che gestiscano la selezione ex post. La scrittura degli algoritmi è ovviamente realizzata secondo progetti che contengono gli incentivi fondamentali delle strutture che li producono: c’è la necessità tecnologica di fare una tecnologia che funzioni, c’è la necessità economica di fare algoritmi che massimizzino il profitto, c’è la volontà culturale di interpretare le esigenze del pubblico che ha bisogno di una selezione dell’informazione e così via. La quantità di informazione si trasforma in qualità soltanto in base alla selezione: sulla scorta dell’idea che poiché tutto è pubblicato basti trovare il meglio.

Tim O’Reilly ha scritto un articolo molto interessante in proposito: Media in the Age of Algorithms. O’Reilly dice che è un problema tecnologico. Osserva che Google ha trovato una metodologia molto efficiente e piuttosto credibile per selezionare i link che restituisce al pubblico che fa la search e che Facebook non l’ha trovata. Google però è stata favorita dal fatto che il motivo per cui gli utenti cercano sul suo motore è proprio quello di trovare le informazioni più rilevanti intorno alla loro curiosità e che se tra quelle informazioni rilevanti c’è anche quella pubblicitaria per loro va bene: quindi il criterio di selezione e il modello di business sono coerenti. Nel caso di Facebook non è così, perché il social network è fatto essenzialmente per ingaggiare gli utenti e questi non cercano necessariamente informazioni rilevanti ma cercano piuttosto relazioni con altri, amici o persone simili a loro: la pubblicità su Facebook è targettizzata sulle caratteristiche, i valori e gli interessi degli utenti che emergono dalle loro opinioni e comportamenti, ma non è direttamente collegata con la qualità dell’informazione che cercano. È chiaro che Facebook si pone il problema e cerca una soluzione: perché la sua credibilità di fondo è comunque importante per il suo business nel lungo termine. Ma per ora non ha trovato una soluzione paragonabile a quella che Google è stata incentivata più direttamente a sviluppare.

Ebbene. Quale può essere quella soluzione? Può essere Facebook a trovarla? Oppure sarà necessario un approccio totalmente nuovo, portato avanti da una piattaforma totalmente nuova?

O’Reilly ricorda il caso della de Havilland e della Boeing, citando uno studio diMichael Marder sulla qualità dell’insegnamento a scuola. La de Havilland era in testa nel dopoguerra per dominare il mercato degli aerei jet di linea. Ma alcuni incidenti la misero in difficoltà. I suoi apparecchi cadevano troppo spesso. Gli ingegneri tentavano di chiudere tutte le falle di progettazione e produzione, ma non riuscivano a rendere gli aere completamente perfetti. E gli aerei cadevano. L’azienda era costretta a tenerli a terra. Intanto, alla Boeing, un ingegnere inventò un approccio nuovo: non tentava di chiudere tutte le imperfezioni dell’aereo, ma di costruire un aereo che non cadesse alla minima imperfezione, che fosse resiliente ai problemi. La Boeing conquistò il mercato e la de Havilland scomparse.

Può essere che Facebook riesca a risolvere il problema della circolazione delle bufale sul social network? O ci vorrà un approccio totalmente nuovo che non verrà mai in mente ai tecnici di Facebook?

L’ipotesi che Facebook si doti di giornalisti può essere presa in considerazione. Ma basteranno mai gli umani esperti a gestire la infinita quantità di informazione che circola sul social network? Ma d’altra parte gli algoritmi da soli potranno mai arrivare a verificare fonti e documentazione delle informazioni che circolano in rete? Un approccio nuovo, in un contesto incentivante diverso, con un modello di business rinnovato, ha maggiori probabilità di emergere per generare informazione di qualità. Un approccio che venga dalla metodologia della ricerca di informazione in passato sviluppata dal migliore giornalismo e che dovrebbe diventare parte di una nuova piattaforma nella quale incentivi, interfacce, modelli di business, aspettative e comportamenti sono coerenti con la selezione dell’informazione in base alla qualità della documentazione e della ricerca che la attesta e la genera. Non è detto che la faccia Facebook questa cosa. Google sta facendo qualcosa in questo senso. Potrebbe venire da giornali, biblioteche, musei, università, archivi, il cui approccio metodologico potesse diventare una sorta di ispirazione per tecnologie moderne e attente alla qualità dell’informazione. Ma di certo occorre che quelle istituzioni facciano un salto di qualità a loro volta culturale per farcela.

Joi Ito, incontrato a Milano in un’occasione organizzata da Porsche Consulting, ha detto che il problema etico ed epistemologico deve trovare una soluzione embeddata nel codice. E questo è quanto stiamo sostenendo da tempo anche qui. Non è facile. Ma chi ha detto che sia facile? Ci sono voluti secoli di stampa prima di arrivare a Economist, Le Monde e New York Times. Non ci possono volere anni di internet per trovare soluzioni analogamente affidabili. Ma il punto di partenza è porre il problema in modo corretto. Il seguito sarà scritto da una quantità di tentativi errati, fatiche immani, idee geniali, spostamenti di prospettiva: fino a che il contesto non sarà abbastanza maturo. L’ecologia dei media insegna anche la pazienza.

Vedi:
La realtà è una sola. Ma vista dalla mediasfera non sembra. È un problema
Preconcetti, strategie, pratiche: conseguenze di Trump sulla sinistra, la tecnologia, l’Europa
Disinformazione, strutturale ma non fatale
Facts and cats. For State of the net 2016

Articoli Correlati

4 Commenti su “Qualità dell’informazione come progetto

  1. Il 24 febbraio 2012 le inviai questa email a margine di un incontro che tenne a Ferrara e al quale non potei partecipare. Dopo quattro anni le cose sembrano ulteriormente peggiorate.

    Gentile dott. De Biase,

    sono stato informato dell’incontro di questa sera presso lo IUSS al quale mi rammarico di non poter partecipare essendo molto interessato ai temi di partecipazione pubblica alla scienza e coinvolgimento pubblico nelle definizioni dei problemi e delle soluzioni tecnoscientifiche.

    Se ne avessi avuto la possibilità credo le avrei chiesto una considerazione sul ruolo del giornalismo ed in particolare su quello che sembra essere il futuro prossimo di questo settore, cioè il giornalismo partecipativo.

    Credo che così come si è passati da una visione della fisica come deterministica, visione nella quale una freccia non può raggiungere un bersaglio posto oltre un muro più alto del bersaglio con una traiettoria retta, ma solo scavalcando il muro, ad una visione della fisica come probabilistica, dove la freccia ha una qualche probabilità di ricomparire oltre il muro e piantarsi nel bersaglio pur viaggiando in linea retta, allo stesso modo, si è passati da un giornalismo deterministico ad un giornalismo probabilistico.

    L’informazione falsa ha qualche probabilità di passare nonostante non ci siano errori ed si operi tutti in buona fede. Questo perché si è sostituita la verifica deterministica (controllo diretto di corrispondenza tra evento ed informazione), ad una probabilistica (una popolazione di interpretazioni riguardo lo stesso evento nasce, e l’intervento degli stessi fruitori dell’informazione incrocia, sopprime, muta, etc. fino a fare uscire quella che diventa la notizia).

    Nel mio campo di ricerca vengono portati esempi positivi come il dibattito turbogas e inceneritore di Ferrara. Esempio di come la partecipazione abbia fatto uscire notizie che poi i giornali tradizionali hanno dovuto solamente ratificare pubblicandole.

    A questo proposito, viene in genere fatto il nome del dott. Armaroli riportandolo come un esempio del successo di questa partecipazione, quando invece, se il giornalismo è riportare il più fedelmente possibile un evento, quello di Armaroli è un esempio lampante di quei casi nei quali, grazie alla natura probabilistica di questo tipo di giornalismo, una notizia falsa diventa vera.

    Il dott. Armaroli è un esperto di fotochimica, che si è guadagnato la fama di esperto di turbine a gas propalando considerazioni errate, frutto di un approccio dilettantistico al problema (la rimando qui http://www.energiaspiegata.it/component/content/article/39-altri-approfondimenti/555-falsi-miti-le-polveri-di-una-centrale-a-gas per una spiegazione). Questo ha fatto sì, che il dato sbagliato accreditasse l’esperto e screditasse chiunque evidenziasse l’errore, impedendo quindi, sempre nell’ottica probabilistica la rettifica dell’informazione.

    In sintesi, Armaroli in quel caso non sapeva, ha pubblicato su una rivista che non poteva garantire il corretto controllo sui contenuti in quanto rivista di una comunità che dell’argomento non sapeva ed è stato, infine, ripreso da persone che non sapevano. Tutto senza malafede, ma con l’intento del cherry picking contro una costruenda centrale.

    Non vede lei, in questo nuovo giornalismo partecipativo, il rischio (naturale, e non frutto di deviazione) che il lettore, che diventa a suo modo compartecipe della fornitura della notizia, possa indirizzare l’informazione più che verso quella più vera, verso quella che gli farebbe più piacere leggere.

    Questo mi sembra un pericolo molto grave, specie per quanto riguarda le questioni scientifiche.

    C’è un problema di responsabilità. Se prima la verifica stava in capo al giornalista che ne rispondeva, ora la sua diffusione deresponsabilizza: il branco protegge.

    Quest’estate ho proposto a Piero Bianucci una riflessione a riguardo e mi ha risposto che “si può, a questo punto, solo confidare negli anticorpi insiti nel sistema: la partecipazione, in altre parole, alla lunga dovrebbe avere in sé stessa i correttivi per i propri errori. Quella partecipativa è una informazione, in ogni caso, ancora tutta da osservare, da studiare e modellizzare. Senza troppe illusioni che una informazione davvero soddisfacente (per non dire perfetta) sia raggiungibile. In ogni caso saremo sempre all’interno di una ermeneutica, cioè di una interpretazione, e con il tempo mi sono convinto che il traguardo da perseguire sia più la buona fede di chi agisce nell’informazione che non la Verità dell’informazione stessa. Che peraltro deve rimanere il limite (non raggiungibile) a cui tendere. La buona informazione è un po’ come i numeri irrazionali, che hanno una quantotà indefinita di decimali, non periodici…”

    Io non sono così fiducioso, mi piacerebbe sapere cosa ne pensa lei.

    La ringrazio per l’attenzione.
    Cordiali saluti,

    Mirko Morini, PhD

    Personalmente ho deciso di abbandonare Facebook perché credo che sia l’unica decisione che possa aver un minimo di influenza.

Add Comment Register



Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>