Home » Senza categoria » Audizione alla Commissione straordinaria intolleranza, razzismo, antisemitismo, istigazione all’odio e alla violenza
media partecipazione perplessità Post Senza categoria

Audizione alla Commissione straordinaria intolleranza, razzismo, antisemitismo, istigazione all’odio e alla violenza

Ieri sono stato chiamato in audizione alla Commissione straordinaria intolleranza, razzismo, antisemitismo, istigazione all’odio e alla violenza. Con molta umiltà ho tentato di portare qualche riflessione su un tema di enorme complessità al quale avevo lavorato anche come coordinatore del gruppo dedicato allo studio del fenomeno dell’odio online che era stato messo in azione dal precedente governo (gov.it).

Mi hanno chiesto tra l’altro di condividere alcuni punti di riferimento da consultare.

Ho segnalato come Facebook dichiari di cancellare il 97% dei messaggi di odio, cioè 26 milioni di messaggi in un trimestre come l’ultimo del 2020 (FB). Gli utenti di Facebook hanno visto 7-8 messaggi di odio ogni mille, nell’ultimo trimestre del 2020 (FB). Altri 6 milioni sono stati individuati su Instagram nel terzo trimestre del 2020. Ma Facebook sa anche riconoscere i messaggi di odio organizzato, circa un quarto di quelli di odio non organizzato.

Questi i dati comunicati da Facebook:

«On Facebook in Q4 we took action on:

6.3 million pieces of bullying and harassment content, up from 3.5 million in Q3 due in part to updates in our technology to detect comments
6.4 million pieces of organized hate content, up from 4 million in Q3
26.9 million pieces of hate speech content, up from 22.1 million in Q3 due in part to updates in our technology in Arabic, Spanish and Portuguese
2.5 million pieces of suicide and self-injury content, up from 1.3 million in Q3 due to increased reviewer capacity

On Instagram in Q4 we took action on:

5 million pieces of bullying and harassment content, up from 2.6 million in Q3 due in part to updates in our technology to detect comments
308,000 pieces of organized hate content, up from 224,000 in Q3
6.6 million pieces of hate speech content, up from 6.5 million in Q3
3.4 million pieces of suicide and self-injury content, up from 1.3 million in Q3 due to increased reviewer capacity» (FB).

Dopo l’uscita dei Facebook Files sul Wall Street Journal e altri giornali, però, sappiamo che quei numeri sono discutibili. Secondo i dati pubblicati dal Wall Street Journal, Facebook riesce a rimuovere al massimo il 5% dei messaggi di odio che i suoi utenti postano (Insider).

Gli algoritmi dei social media sono fatti per dare alle persone prevalentemente i contenuti che apprezzano di più, probabilmente, sulla base dei loro comportamenti passati. Ma questi algoritmi di raccomandazione possono generare creare effetti collaterali. Uno studio pubblicato da Twitter ha mostrato che chi usa la piattaforma con l’algoritmo tende a rilanciare i post politici con maggiore frequenza di chi usa il feed che ordina i post in senso cronologico inverso (Twitter).

La pubblicazione volontaria di questo tipo di studio da parte di Twitter ha distinto quella piattaforma dalle pratiche decisamente meno collaborative del gruppo di Facebook. Per sapere qualcosa degli studi interni a Facebook ci sono volute le inchieste del New York Times e i files usciti dall’azienda con Frances Haugen.

Gli scienziati del GPAI, a Parigi, hanno chiesto di poter accedere in modo sistematico ai dati delle piattaforme (GPAI). È comunque l’unico modo per cominciare a mettere un freno alle conseguenze inattese della crescita dei social media. E per dare un senso all’ipotesi di co-regolamentazione alla quale sta lavorando la Commissione europea. Questa potrebbe essere una prima raccomandazione: che il Senato si adoperi perché l’Italia in Europa proponga che le piattaforme devono lasciare che i loro dati diventino liberamente, scientificamente analizzabili.

Internet resta un’incredibile opportunità per mettere insieme la conoscenza che gli umani sviluppano. Ma occorre prendere atto che alcune macchine che sono state costruite su internet hanno la capacità di influenzare i comportamenti e le convinzioni delle persone in modo non sempre liberatorio: possono indurre forme di dipendenza, possono radicalizzare tendenze estreme esistenti, possono favorire esperienze psicologiche e sociali, in alcuni casi, tossiche.

La strategia non può essere quella di fermare i discorsi di odio uno per uno. Deve essere sistemica. Una prima strada è stata avviata dalla Commissione, appunto, con l’idea della co-regolamentazione, coadiuvata – aggiungiamo – dalla disponibilità dei dati delle piattaforme per studi scientifici. Una strada di lungo termine più importante ancora è quella di incentivare una moltiplicazione di alternative, con modelli di business, target e idee di servizio che non dipendano dalla pubblicità ma dalla qualità dell’esperienza offerta. Perché le opportunità dell’innovazione digitale sono immense e talvolta emergono proprio nelle difficoltà e nei difetti delle condizioni precedenti.

Una consapevolezza va sviluppata: le persone che odiano possono comunicare pensieri orribili, ma spesso lo fanno perché a loro volta soffrono. La sofferenza non è vietata. E le dinamiche psicologiche di chi trasforma la propria debolezza in violenza non possono essere normate. Naturalmente le azioni violente lo sono già e qualunque ne sia la ragione vengono già perseguite. Ma è necessario focalizzare l’attenzione su chi trasforma le dinamiche algoritmiche e sociali della rete in armi per sfruttare quelle persone deboli e sofferenti e lanciarle contro obiettivi politici o economici nella forma dei discorsi di odio organizzati che costituiscono un pericolo per l’ordine pubblico. Facebook sostiene di saper riconoscere l’odio organizzato. Ma è importante notare che questa organizzazione fa leva proprio sulla conoscenza di come si usano gli algoritmi di Facebook e delle altre piattaforme analoghe per aggregare persone di sensibilità simili e sfruttarle per operazioni antidemocratiche, irrispettose delle altre persone, politicamente micidiali.

Le piattaforme esistenti che collaborano a ripulire l’ambiente che hanno contribuito a costruire e le nuove piattaforme nate proprio per creare ambienti di socializzazione di migliore qualità possono aprire la strada a soluzioni importanti per problemi divenuti non certo marginali: c’è un continuum tra la diffusione di notizie false, la produzione di discorsi di odio, la radicalizzazione delle posizioni estreme. E questo coinvolge un numero di persone che può avere conseguenze pesanti su qualsiasi sistema politico, comprese le democrazie.

Commenta

Clicca qui per inserire un commento

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video

Post più letti

Post più condivisi