Home » media » FacebooQ. I social network, i governi e la lotta alla disinformazione tossica. Per l’ecologia dei media
Attenzione media media partecipazione perplessità Post

FacebooQ. I social network, i governi e la lotta alla disinformazione tossica. Per l’ecologia dei media

FacebooQ, Facebook e Qanon. Storia complicata ma istruttiva.

E dunque Facebook si impegna di più contro Qanon. Chiude i gruppi e le pagine dedicate esplicitamente al movimento che ha conquistato l’attenzione di un numero crescente di persone in America e che d’ora in poi tratterà come i gruppi terroristici (o quasi). Le singole persone che continuano a scambiarsi informazioni legate a Qanon potranno continuare a farlo. Saranno limitate le forme più “pubbliche” e “attivistiche” del movimento. (Guardian)

Dal punto di vista narrativo la storia di Qanon è interessantissima e terribile. Riassuendo in modo certamente impreciso la storia è questa. Un agente del servizio segreto americano che lavora per il presidente Donald Trump e che si firma Q vuole rivelare quello che ha scoperto su una cospirazione terribile ai danni dei bambini e degli americani al cui vertice ci sono grandi personaggi della politica, essenzialmente democratici. Ma a sua volta non deve farsi scoprire. Sicché mette in giro sulla rete degli indizi che i suoi seguaci devono trovare, interpretare, connettere, per svelare l’intera storia. Tutto primo di qualsiasi documento reale. Disinformazione travestita da informazione e racchiusa in una sorta di fiction crossmediale che molti americani scambiano per realtà. La storia dell’incredibile cospirazione è creduta. Da un sacco di gente.

Partita su siti relativamente di nicchia come 4chan e 8chan, si è allargata grazie a certi giornali che ne hanno parlato senza troppa attenzione, grazie all’aiuto dell’account Twitter di Trump e grazie agli algoritmi di Facebook e Twitter che sono stati usati per fare uscire dalla nicchia la storia di Q e connetterla ad altri cluster come quelli di chi si occupa di #savethechildren, quelli che si impegnano a combattere contro i vaccini e quelli che sostengono l’antisemitismo. La destra del partito repubblicano non sembra scontenta del successo di Qanon.

I problemi delle piattaforme con l’informazione e la disinformazione sono in parte gli stessi che hanno i sistemi giuridici dei paesi democratici. In parte sono specifici.

In generale, nelle costituzioni democratiche la libertà di espressione si estende anche alla libertà di dire cose inesatte o inventate e di sostenere cause orribili. Nelle stesse democrazie, ovviamente, si tenta di intervenire contro i gruppi e le organizzazioni che operano attività violente e terrorismo. I problemi stanno in mezzo.

Quando l’espressione di idee diventa organizzazione di azioni?

Ci sono zone grigie. La propaganda razzista è un reato in Italia. Anche se non sembra essere trattato in modo molto severo visto che per esempio un famoso sindaco di Verona di qualche anno fa lo è rimasto anche se condannato in terzo grado proprio per propaganda razzista (Per la pace). Insomma, la propaganda è una cosa che non si fa. Ma è una zona grigia e quindi non è neppure troppo perseguita.

Ci sono molte altre attività un po’ a metà. Che cosa fanno quelli che dichiarano le loro idee in una piattaforma e fanno di tutto per usarne le funzionalità per fare in modo che quelle idee siano rilanciate e diffuse al massimo? Sono sempre nei limiti dell’espressione o stanno già agendo e organizzando violenze? E soprattutto chi deve rispondere?

È evidente che queste domande trovano risposte serie se sono affrontate dalla magistratura.

Di fatto però si pensa spesso che la magistratura non basti, per questioni di velocità e non solo. E ci si domanda che cosa possono fare i privati e i governi.

Che cosa possono fare le aziende private indipendentemente dal consiglio della magistratura? Di certo, le aziende private che gestiscono piattaforme utilizzate da razzisti, fascisti, violenti, manipolatori dell’odio e della disinformazione, criminali, e altra gente del genere, sono sottoposte a pressioni dell’opinione pubblica perché intervengano a ripulire i loro canali informativi. Sicché prima o poi prendono provvedimenti. Almeno per dimostrare all’opinione pubblica che fanno qualcosa. E per evitare ulteriori problemi, per esempio, Facebook ha fatto quello che abbiamo riportato in apertura.

Che cosa fanno i governi? In modo criticabile, qualche volta, gli stessi governi a loro volta attribuiscono alle piattaforme stesse il compito di proteggere i cittadini dalle informazioni tossiche. Questo aspetto è particolarmente complicato. Delegare la lotta alla violenza alle piattaforme private è ovviamente un errore da parte dei governi. È pur vero che quello che succede in rete è molto veloce e mette in difficoltà le politiche e le magistrature. Quindi il tema non è peregrino. Ma la delega ai privati è un potenziale errore: gli incentivi che le piattaforme hanno per combattere le informazioni tossiche dipendono dal loro modello di business più che dalle richieste dei governi. E poi i sistemi decisionali dei privati sono troppo legati alla volontà dei singoli proprietari per poter credibilmente essere interpreti del bene comune.

I governi devono lavorare nella questione della tossicità della mediasfera come lavorano nella questione della tossicità dell’atmosfera. L’ecologia dei media assomiglia all’ecologia dei paesi industriali o tecnologicamente avanzati. Si tratta di operare in modo strategico, sapendo che ogni intervento ha conseguenze dirette e indirette, con grande consapevolezza del primato della cultura e con la conoscenza delle logiche evolutive e co-evolutive che caratterizzano lo sviluppo in un ecosistema. Quindi in pratica si tratta di lavorare strategicamente per favorire la nascita di una sana infodiversità, una molteplicità di piattaforme, un’attenzione da parte di tutte ai diritti umani e alle logiche profonde dei valori civici. E poi si tratta di lavorare tatticamente nella repressione dei fenomeni che dall’espressione di opinioni si trasformano in organizzazioni della violenza. Forse occorre studiare a fondo il rapporto tra gli algoritmi e l’azione: gli algoritmi possono influenzare i comportamenti individuali ed essere usati dunque da chi vuole manipolare quei comportamenti individuali per trasformarli in azione violenta. Ma la stessa raccolta di consenso che chi scrive sui social fa quasi di default per sostenere la partecipazione di molti alla moltiplicazione dei seguaci di certe idee può essere considerata di per sé una forma di propaganda attiva? Si potrebbe dunque frenare intervenendo per legge sulla trasparenza e la logica degli algoritmi quando questi sono usati per diffondere violenza, odio e disinformazione? È un tema controverso e che merita un approfondimento. Facebook, con il suo recente intervento, sembra dire: noi pensiamo che se le persone parlano tra loro possono dire quello che vogliono, se invece vanno in giro in pubblico con un megafono a lanciare le loro informazioni tossiche allora li blocchiamo. Si tratta di una soluzione generalizzabile? E si tratta di una soluzione che i governi dovrebbero generalizzare? Ogni contributo è benvenuto.

Photo by Ella Ivanescu on Unsplash

Commenta

Clicca qui per inserire un commento

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video