Category media

La net neutrality è politica. A New York. Grazie a Tim Wu

Tim Wu è accreditato per aver popolarizzato il termine net neutrality con il suo paper del 2003. E ora è candidato Lieutenant Governor di New York.

Approccio europeo alla valutazione delle università

Invece di fare una classifica delle università, u-Multirank raccoglie tutti i dati che possono servire a valutare gli atenei e poi consente agli utenti di confrontarne la performance in base a quello che per loro è più importante. Non emergono classifiche ma confronti. Non si nascondono i dati e i criteri valutativi dietro la comunicazione dei risultati di una competizione, le cui regole sono decise dalle istituzioni che stilano le classifiche con un approccio piuttosto top-down, ma si danno alle persone gli strumenti per farsi un’idea propria del valore delle università. Chissà che cosa ne pensano gli esperti. Vista da qui, non pare una brutta idea. Ma aspettiamo e speriamo in qualche commento da esperti veri…

Un problema dimenticato del diritto all’oblio

È complicato. Il diritto all’oblio resta un principio in cerca di equilibrio. Come previsto (Guardian), la decisione della Corte Ue ha lasciato aperte troppe questioni e il problema della relazione tra diritto all’oblio e correttezza dell’informazione resta irrisolto.

Secondo indiscrezioni pubblicate da VentureBeat la situazione attuale non è soddisfacente per le autorità europee. In pratica, avendo lasciato le decisioni a Google e agli altri motori di ricerca la certezza del diritto non c’è. Inoltre, chi cerchi le notizie “delinkate” in Europa le trova sulle versioni extraeuropee di Google. Ma soprattutto in molti casi la rimozione dei link dal motore sembra aumentare l’attenzione intorno ai casi che si tenta di far dimenticare.

Il punto, probabilmente, è che la prima pagina restituita da Google quando si cerca una persona equivale a una sorta di immagine pubblica della persona stessa. Alla fine, forse, occorre cercare non di negare i fatti, ma di darli con maggiore completezza.

È possibile che i fatti negativi che sorprendono una persona – tipo le accuse di malversazioni – tendano a essere più linkati di quanto non avvenga alle eventuali soluzioni positive successive – tipo le assoluzioni. L’equilibrio dell’immagine pubblica della persona ne risente, ovviamente.

La soluzione è ancora lontana. Google dà conto soprattutto delle pagine più linkate, ma forse per le persone potrebbe tentare di modificare i risultati delle ricerche per renderle più equilibrate e diversificate. L’algoritmo viene costantemente modificato: potrebbe forse essere mutato anche per questo scopo.

È possibile la neutralità delle piattaforme?

Uno studio del Conseil National du Numerique analizza la possibilità di introdurre il concetto della neutralità nell’ambito delle piattaforme, come Apple, YouTube, Facebook e così via. Altri potrebbero chiedere una interoperabilità delle piattaforme, in modo che non siano mondi a parte. Ma nella neutralità, il Conseil vede qualcosa di più, in termini per esempio di accesso ai dati.

Le piattaforme hanno una posizione molto favorevole in un mercato a tre dimensioni:
1. offerta di servizi gratuiti agli utenti che in in cambio cedono dati su loro stessi
2. offerta di servizi per la pubblicità alle aziende che hanno messaggi pubblicitari da inviare agli utenti
3. offerta di una base di utenti ad aziende terze che producono software da vendere agli utenti stessi (le piattaforme trattengono una percentuale del business)

Nella prima dimensione, le piattaforme sembrano delle utility o produttori di software. Nella seconda sembrano editori. Nella terza sembrano negozi online. Se arrivano a conquistare una grande base di utenti con servizi di elevata utilità a prezzi bassi o nulli, giocando sull’esclusività tecnologica, le piattaforme si costruiscono posizioni dominanti nei mercati editoriali e commerciali. E poiché le tecnologie di rete hanno la tendenza a crescere geometricamente di valore con il numero di utenti (per la cosiddetta “legge di metcalfe”), questa posizione dominante diventa dirompente sui mercati adiacenti. Il punto di domanda in quel caso diventa: queste piattaforme vanno regolamentate? E se sì, devono essere regolamentate in base alla loro funzione di “utility”? Oppure devono sottostare a qualche forma di antitrust innovativo? Seguendo l’idea del Conseil si direbbe di sì: devono essere interoperabili, o addirittura neutrali.

Alexandre Bénétreau, Edri, che riassume il rapporto del Conseil, aggiunge peraltro una critica, individuando una sorta di contraddizione francese:

The approach of the French government has its own hypocritical storytelling. The Council of the European Union (EU member state governments) is currently negotiating on the “telecoms single market regulation”, which includes provisions on net neutrality. The French government is taking the position that net neutrality and platform neutrality should be regulated at the same time. The most likely outcome of this approach is to kill the possibility of the EU regulating in favour of net neutrality. If the French government is successful, there will be little or no possibility of the European Commission legislating on either net- or platform neutrality in the foreseeable future.

Probabilmente l’obiettivo dell’interoperabilità è il più coerente per cominciare a porre il tema e a sviluppare una cultura in materia. Si tratta per esempio di aprire alla concorrenza tra “negozi” diversi il sistema di vendita di servizi e applicazioni che è stato sviluppato sulle piattaforme (cloud, device, software). In ogni caso, sarebbe meglio evitare che un concetto di neutralità applicato alle piattaforme renda meno comprensibile la necessità di mantenere neutrale la “piattaforma delle piattaforme”: cioè internet. L’interoperabilità potrebbe essere sufficiente, almeno per cominciare, perché imporrebbe alle piattaforme dominanti di aprire ponti verso le piattaforme emergenti o concorrenti.

Alla base, la neutralità della rete è necessaria per consentire alle piattaforme nascenti di proporre la loro innovazione senza chiedere il permesso agli operatori dell’accesso a internet. Quando sono cresciute un po’, avrebbero bisogno dell’interoperabilità con le piattaforme esistenti e già affermate per potere offrire i loro servizi agli utenti. Neutralità della rete e interoperabilità delle piattaforme, in questo senso, si saldano in una visione aperta di internet.

Vedi anche:
Dibattito editori, autori, Amazon
Anche qui

Drôle de guerre: Hachette, Amazon and authors. Something needs to be fixed, but looking ahead

A commercial dispute between Amazon and Hachette has led quite a few authors to take a stand. On which side? Well, they surely are against Amazon. But are they also with Hachette?

Authors United sent a letter to their readers through an advertisment. They claim Amazon has boycotted Hachette and made the works of some authors more difficult to find at the right price. Amazon answered by accusing Hachette to impose the wrong price on their books (adding a little gaffe about Orwell). Hachette just said that they want to go on negotiating. John Kay suggests that the real problem is in publisher’s strategy.

It’s been a sort of “drôle de guerre” until now. But the future is not going to be nice for some of the players. Amazon is winning on the technology side and there is little that Hachette and other publishers have been doing to prevent their complete defeat. Authors are asking Amazon – rightly – for fair competitive tactics. But in the long run, this is not enough. If they like publishers they should be asking them to improve their vision and strategy.

Publishers buy authors’ copyright in exchange of some services they still give, such as financing, marketing and editing, but they can pay for it only if the also make a great delivering. As a matter of fact, marketing and editing can be done by someone else, maybe financing too, delivering is done more and more by Amazon. Publishers’ problem is not about negotiating: it is about creating a real strategy.

Where to look? Where is Amazon going to find problems?

Amazon is a scalable platform that has the ability to lower the price for delivering content – and many other things – to the consumer. The more customers they have the more margins they do in an exponential manner. What prevents them to make huge and stable profits now is their choice and will: it is because they are investing tons of dollars in innovation and in acquiring customers. In the long run they will have a base they think is right and start getting more and more profitable. The problem with that is that they also want to lock-in customers. Their platform is not interoperable with any other platform. This is because in their technical world they want control. And this fundamentally changes the idea of Amazon as the place where you find anything you need to find at a very good price.

Amazon is competing against publishers, and winning. But it is also competing against other platforms: such as Apple and Google. In the book world they win because customers feel that Amazons has the best choice of books – and a very good device to read them. If Amazons starts not to sell everything, if it excludes some publishers or authors, it will be chaos: people will have to have a device for every platform to get to every author. So they need to fight publishers without helping Apple and Google.

There is a technical flaw in Amazons’ stategy. If the net is neutral somewhere can be created a new platform that starts from skratch with the idea that it will allow to deliver, pay and read any book that is published by any author. A new interoperable platform that levels the field for competition between authors, publishers and device makers can be a prospect: if someone starts to invest in it before Amazon has completely won.

Authors could ask publishers to invest in this platform, now. Or they could start thinking about a new platform that will help all professionals to find they business model: editors, markerters, financers, stylists, authors and every other profession can gather in a new book project, make a deal about how to divide revenues and deliver the work. It is not impossible.

What’s impossible is to win by just complaining.

Benigni, Siae, copyright. Guardiamoci un bel film

Nella piccola vicenda italiana del contributo per la copia privata sono riusciti a trascinare diversi autori amati dal pubblico. Evidentemente senza perdere tempo a spiegare bene loro di che cosa stavano parlando. È un’impressione che, soggettivamente, mi pare avvalorata dal comunicato stampa alla fine del post precedente.

Ma è ancora più chiara con la comunicazione di Benigni e Bertolucci di ieri, all’Ansa. Dicono che l’equo compenso sulla copia privata «non è una tassa ma un giusto corrispettivo per chi produce creatività in questo Paese cercando e sperando di aiutarlo a migliorare». La parola chiave è “giusto”. Che sia legale è vero, visto che c’è una legge, ma questo non consente di definirlo “giusto” considerando che lo devono pagare tutti anche se non si fanno nessuna copia privata di niente.

E qui c’è il salto logico più interessante. Quando i due registi si dimostrano che convinti che il contributo dovrebbe essere pagato dalle aziende che producono smartphone e altri device: «Le aziende che scaricano sui consumatori un loro obbligo compiono un atto ingiustificato a difesa degli interessi finanziari di coloro che molto prendono e pochissimo restituiscono alla nostra cultura». Non si capisce proprio da dove nasca questa convinzione secondo la quale il contributo dovrebbe essere pagato dai produttori e non dai consumatori considerato che la Siae afferma chiaramente che si tratta di un contributo vantaggioso per i consumatori: «La Copia Privata è il compenso che si applica, tramite una royalty sui supporti vergini fonografici o audiovisivi in cambio della possibilità di effettuare registrazioni di opere protette dal diritto d’autore. In questo modo ognuno può effettuare una copia con grande risparmio rispetto all’acquisto di un altro originale». Da notare quel “si applica … in cambio della possibilità di effettuare registrazioni”: chi le effettua se non il consumatore? E dunque con chi è lo scambio? E dunque chi lo deve pagare il contributo? Evidentemente il consumatore (ho appena riguardato il sito Siae ed è ancora uguale a come l’ho citato; non so se cambierà in futuro).

Questa battaglia è sulla logica. Non sulla sostanza. Perché la sostanza è che il diritto d’autore merita una ricompensa. Ma merita una ricompensa giusta e pagata da chi effettivamente fa uso del diritto d’autore non da chi si compra un telefono per fare le mille altre cose che consente. E tanto meno, parrebbe, da chi vende quel telefono. Ci vuole altro per compensare giustamente gli autori e per punire i produttori della loro tendenza a eludere le tasse.

Ma questa è una piccola questione. Come si sa, chi parla di copia privata non deve alludere in nessun caso al fatto questo contributo potrebbe essere pensato come una compensazione per la pirateria come impone la Corte europea. Eppure, esplicitamente o implicitamente, in nome della salvaguardia dei diritti degli editori (e forse degli autori) si stanno commettendo errori e si stanno sostenendo opinioni illogiche e ingiuste.

Benigni e Bertolucci si sono prestati a fare da soldati in una piccola guerra. Ma forse potrebbero dare un’occhiata alla grande immagine di ciò che sta accadendo. E guardarsi un film. Bellissimo:

Il codice è codice, la legge è software: la cultura digitale è un diritto

Questo post è un po’ lungo…

L’approccio

Lawrence Lessig ha avuto l’intuizione fondamentale. Con il libro “Code and other laws of cyberspace” e l’articolo per Harvard Magazine “Code is law” del gennaio 2000 – scritti al culmine della irrazionale euforia per la bolla delle dot-com – ha contribuito ad aprire una strada:

lessig-column

“Every age has its potential regulator, its threat to liberty. Our founders feared a newly empowered federal government; the Constitution is written against that fear. John Stuart Mill worried about the regulation by social norms in nineteenth-century England; his book On Liberty is written against that regulation. Many of the progressives in the twentieth century worried about the injustices of the market. The reforms of the market, and the safety nets that surround it, were erected in response.

Ours is the age of cyberspace. It, too, has a regulator. This regulator, too, threatens liberty. But so obsessed are we with the idea that liberty means “freedom from government” that we don’t even see the regulation in this new space. We therefore don’t see the threat to liberty that this regulation presents.

This regulator is code—the software and hardware that make cyberspace as it is. This code, or architecture, sets the terms on which life in cyberspace is experienced. It determines how easy it is to protect privacy, or how easy it is to censor speech. It determines whether access to information is general or whether information is zoned. It affects who sees what, or what is monitored. In a host of ways that one cannot begin to see unless one begins to understand the nature of this code, the code of cyberspace regulates.”

E aggiungeva, a dimostrazione della sua straordinaria capacità visionaria:

“This regulation is changing. The code of cyberspace is changing. And as this code changes, the character of cyberspace will change as well. Cyberspace will change from a place that protects anonymity, free speech, and individual control, to a place that makes anonymity harder, speech less free, and individual control the province of individual experts only.”

Quale sarebbe stato il percorso per questo cambiamento? E chi ne sarebbe stato protagonista? Per Lessig al fondamento della rete internet c’è un codice originario che ha conseguenze molto precise. “The basic code of the Internet implements a set of protocols called TCP/IP. These protocols enable the exchange of data among interconnected networks. This exchange occurs without the networks knowing the content of the data, or without any true idea of who in real life the sender of a given bit of data is. This code is neutral about the data, and ignorant about the user”. La conseguenza è che in questa architettura è che la singola persona è difficilmente tracciabile e che lo scambio di dati è difficile da controllare il che significa che per i governi è complicato regolamentare internet. Chiaramente questa difficoltà favorisce la libertà di espressione ma anche l’attività illegale: in un contesto autoritario ha la positiva conseguenza di difendere chi informa sui fatti; in un contesto criminale ha la conseguenza negativa di difendere per esempio la pedofilia, la diffusione di materiali filonazisti e altro. Lessig si chiede: che cosa ci possiamo fare? “There are many who think that nothing can be done: that the unregulability of the Internet is fixed; that there is nothing we can do to change it; that it will, so long as it is the Internet, remain unregulable space. That its ‘nature’ makes it so”. E’ un approccio molto diffuso. Ma sempre più insostenibile. E non per motivi legali: per motivi che fanno parte integrante della stessa architettura della rete: “But no thought is more dangerous to the future of liberty in cyberspace than this faith in freedom guaranteed by the code. For the code is not fixed. The architecture of cyberspace is not given. Unregulability is a function of code, but the code can change. Other architectures can be layered onto the basic TCP/IP protocols, and these other architectures can make behavior on the Net fundamentally regulable. Commerce is building these other architectures; the government can help; the two together can transform the character of the Net. They can and they are”. Se l’unica difesa della libertà è nel codice, dice Lessig, bisogna fare attenzione: perché il codice può essere cambiato. E quindi qualcuno lo sta cambiando. Generando forme di regolamentazione che non sono necessariamente desiderabili. E che comunque richiedono un pensiero.

Pubblicato nel 2000, questo articolo sembra scritto da chi ha visto il film dello sviluppo di internet negli anni successivi. Le piattaforme commerciali si sono sovrapposte a internet e hanno conquistato miliardi di utenti che non godono di alcun anonimato e i cui messaggi sono perfettamente controllabili. I governi hanno imparato a separare le reti nazionali da quella internazionale e le loro agenzie sono riuscite – come la Nsa – a raccogliere ogni genere di informazioni su chi usa internet e su ciò che fa e scrive usando la rete. Le piattaforme e gli interventi governativi hanno completamente rovesciato la condizione di libertà che appariva il fondamento del protocollo TCP/IP per i cittadini che accettano di usare le piattaforme e che non sono capaci di aggirare le limitazioni e gli interventi delle autorità di governo. E in questo contesto, per i cittadini normali che usano le piattaforme e non si sanno o non si vogliono difendere dalle intrusioni del governo, la quantità di informazioni che può essere collegata alla loro identità e persona è enormemente superiore a quello che avveniva in contesti architetturali precedenti a internet. I cookies e le altre forme di raccolta di informazioni consentono di conoscere l’identità della persona, tutti i suoi dati anagrafici, tutte le sue attività, le sue preferenze anche le più intime, in base proprio a quello che le persone fanno volontariamente online, analizzando le attività e le interazioni con ogni genere di contenuto che si può pubblicare o ricevere in rete e con ogni tipo di relazione sociale che si può coltivare sulle piattaforme.

Il punto di Lessig è che quanto viene difesa la privacy o quanto viene infranta dipende dal codice. Chi scrive il codice scrive la regola. Può essere incentivato a scriverlo in un modo o in un altro dal mercato o dalla legge, ma sarà chi scrive il codice a decidere. Quello che conta, dunque, dice Lessig, sono i valori di chi scrive il software. E i loro valori diventeranno i valori che contano per le regole seguite da chi usa il software. “So should we have a role in choosing this code, if this code will choose our values? Should we care about how values emerge here?”. Certo, si risponderà: dobbiamo avere un modo per influenzare le regole che il codice impone ai comportamenti delle persone. Ma chi e come decide? Molti pensano che si debbano lasciare andare le cose senza interventi governativi. Altri pensano a una pletora di decisioni che possono essere prese per intervenire punto per punto sui problemi emergenti. Probabilmente sono entrambe posizioni sbagliate. Perché chi decide c’è sicuramente.

“Our choice is not between “regulation” and “no regulation.” The code regulates. It implements values, or not. It enables freedoms, or disables them. It protects privacy, or promotes monitoring. People choose how the code does these things. People write the code. Thus the choice is not whether people will decide how cyberspace regulates. People—coders—will. The only choice is whether we collectively will have a role in their choice—and thus in determining how these values regulate—or whether collectively we will allow the coders to select our values for us”.

Il riflesso condizionato che conduce a pensare che sia meglio che il governo resti fuori dalla regolamentazione di internet è un riflesso che nasce da un’ideologia diffusa secondo la quale il mercato o la tecnologia si autoregolamentano nel migliore dei modi possibile. Ma chi può dire che sia vero alla prova dei fatti? “For here’s the obvious point: when government steps aside, it’s not as if nothing takes its place. It’s not as if private interests have no interests; as if private interests don’t have ends that they will then pursue. To push the antigovernment button is not to teleport us to Eden. When the interests of government are gone, other interests take their place. Do we know what those interests are? And are we so certain they are anything better?”.

Il problema non è quello di limitare la libertà del mercato o della tecnologia. Ma di conoscere le conseguenze delle decisioni regolatorie. E cercare di mettere insieme un sistema che – come una costituzione – cerchi di mantenere un equilibrio tra gli interessi. Non c’è una soluzione preconfezionata chiara e semplice. Ma un approccio costituzionale è un modo per trovarla: “Our first response should be hesitation. It is proper to let the market develop first. But as the Constitution checks and limits what Congress does, so too should constitutional values check and limit what a market does. We should test both the laws of Congress and the product of a market against these values. We should interrogate the architecture of cyberspace as we interrogate the code of Congress”.

Una quantità di lavori di ricerca, di attività politiche, di discussioni tecniche si sono succedute a commentare l’evoluzione di internet e delle sue conseguenze sui valori e le regole che governano la società. Secondo Lessig non si può non tener conto di un nuovo soggetto “politico” fondamentale nell’epoca di internet: il potere dei programmatori e la forza regolamentatoria delle piattaforme che la programmazione sviluppa. Sono persone. Hanno interessi. Hanno valori. E sono manipolabili. Oppure possono manipolare. Il corollario è che che non esiste una deregolamentazione in questo settore, ma solo una scelta su chi sia chiamato a regolamentare. Forse non basta per risolvere il problema. Ma di certo lo pone in modo adeguato alla sfida posta da internet alla società umana.

Tutto questo svela due ordini di realtà piuttosto importanti.

Chi ritiene che il mercato sia in grado di autoregolarsi e non debba subire l’interento del governo può avere se sue ragioni sul piano economico, ma queste si fermano di fronte alla scoperta che il codice ha conseguenze normative: le scelte dei programmatori possono essere influenzate dalle logiche del mercato ma non ne sono completamente governate. Perché esiste una dimensione indipendente nella quale valgono i valori dei programmatori, le logiche evolutive della tecnologia, la stessa capacità di interpretare le conseguenze della programmazione sui comportamenti degli utenti. Anzi, questa dimensione non è ininfluente sulla struttura del mercato: la forza normativa del codice software entra in gioco e contribuisce a regolare, implicitamente o esplicitamente, le stesse relazioni di mercato, limitandone alcune e favorendone altre.

Analogamente, chi ritiene invece che il governo debba intervenire per dare una voce democratica alla regolamentazione dei comportamenti umani nel mondo della rete dovrebbe tener conto a sua volta del fatto che il codice ha conseguenze normative. In una certa misura, si può dire che le leggi scritte sulla carta hanno conseguenze mediate dalla tecnologia. La tecnologia, si scopre, ha conseguenze normative autonome e in qualche caso indipendenti dalla lettera delle leggi. Un po’ come la qualità della burocrazia influisce sulla qualità dell’applicazione delle decisioni del governo, così la qualità del software influisce sulla qualità dell’applicazione delle norme decise dal governo. E così come la capacità della burocrazia di interpretare interessi e momenti storici è importante nell’applicazione delle decisioni politiche, allo stesso modo l’interpretazione normativa del codice è importante per comprendere quanto e come le norme politiche saranno davvero efficaci.

Di fronte a tutto questo, la storia ci dice che i governi democratici tendono a subire l’influenza delle lobby finanziarie e ad essere limitati nella loro azione da una conseguente ideologia economicista. Da questo punto di vista gli spazi di manovra per gli interventi regolamentari da parte dei governi sembrano essersi ridotti di fronte alla libertà d’azione della finanza e, grazie agli spazi così aperti nelle normative, le piattaforme tecnologiche di maggior successo si sono rese fondamentalmente autonome dagli stati: dal punto di vista fiscale e dal punto di vista normativo, quasi fossero repubbliche – o imperi – indipendenti.

Ma non è la fine della storia. Forse perché la storia non ha fine. La politica ritorna in mille modi a farsi sentire: nel confronto tra le potenze globali, tra le democrazie occidentali, il nazionalismo russo, la partitocrazia capitalistica cinese, le diverse interpretazioni politiche dell’islam e così via; nella gestione delle tensioni sociali che emergono durante la grande trasformazione che pervade le vecchie economie dominanti che lasciano spazio alle nuove economie emergenti; e nell’invenzione continua di innovazioni anche politiche che emergono dalle profondità dell’internet originaria, ancora generativa e relativamente libera.

La politica

Il codice è legge, l’algoritmo è regola, l’intefaccia è interpretazione. Questo è quanto abbiamo appreso dall’evoluzione del dibattito sul tema posto da Lessig.

Byung_Chul_HanAndrebbe letto il libro di Byung-Chul Han “La società della trasparenza”: il filosofo coreano che insegna a Berlino discute con straordinaria lucidità del mito della trasparenza e lo accosta all’ideologia della perfetta circolazione della moneta, alla concezione efficientista della tecnologia dell’informazione, alla società dell’apparire. Ne emerge una critica fortissima del mito secondo il quale la trasparenza è giusta, bella e vera di per sé. Un’argomentazione da discutere ma che lascia il segno. E andrebbero letti mille altri contributi, sulle conseguenze della rete, comprese quelle politiche. Come per esempio il libro di Antonio Floridia, “La democrazia deliberativa: teorie, processi e sistemi” (Carocci 2012), oppure Stefano Rodotà, “Il diritto di avere diritti” (Laterza 2012, segnalazione), o addirittura per chi abbia tempo in eccesso, il libro dell’autore di questo testo “Media civici” (Feltrinelli 2013). Ma la bibliografia è sterminata. Non è possibile ricostruire tutto in poche righe. Ma si può scegliere. A partire dalla premessa: Il codice è legge, l’algoritmo è regola, l’intefaccia è interpretazione.

In un contesto nel quale le regole fondamentali poste dalla legge del software sono strutturali, cioè vagamente simili a forme costituzionali, il primo passo è quello di individuare i modi con i quali la politica consapevole, se non addirittura democratica, riprende una libertà di manovra e una capacità di influenza sul modo con il quale la società prende decisioni che riguardano i fondamenti della convivenza.

In assenza di politica, la tecnologia pone le sue regole. E le regole dei media sociali influiscono sulla convivenza in un modo molto preciso. Facebook, la più diffusa piattaforma per il social networking, sceglie di condurre le persone che la usano a connettersi sulla base della regola del “mi piace”. Ogni volta che si dichiara che un post “mi piace” la selezione viene registrata e un algoritmo che funziona di default sulla piattaforma fa in modo che le prossime volte che si entra su Facebook le prime informazioni che si vedono sono quelle postate da persone alle quali in passato si è dato un “mi piace”. Poiché il tempo che si passa sulla piattaforma non è infinito, le prime informazioni sono probabilmente molto più viste di quelle che apparirebbero andando avanti nella lettura: alla lunga ci si connette prevalentemente con le persone alle quali si è fatto “mi piace”. Questo algoritmo è un filtro contro l’eccesso di informazione. Comodo, gradevole e con importanti conseguenze. Si formano secondo Eli Pariser (“The filter bubble”) delle bolle mentali e sociali all’interno delle quali le persone incontrano solo persone simili a loro, per curiosità, interessi, ideologie. E’ un modo divertente di socializzare e piuttosto gratificante perché come i “mi piace” si danno, in queste bolle è probabile che i “mi piace” si ricevano. Ma non è necessariamente un buon modo per prendere decisioni che abbiano una valenza politica per una popolazione.

In effetti, le decisioni politiche si prendono anche insieme a chi non piace. Anzi il problema è proprio questo: come costruire regole “costituzionali” che servano a decidere con gli altri cittadini che non hanno necessariamente le stesse opinioni ma secondo un metodo legittimato da tutti. E a questo proposito sta emergendo una nuova ondata innovativa per la generazione di piattaforme che abbiano questa funzione, fatte con un condice, delle regole e un’intefaccia che favoriscano comportamenti adatti a svolgere questa funzione.

Fino a che al di sotto delle piattaforme più utilizzate dalla popolazione connessa in rete esiste sempre una internet neutrale resta possibile l’emergere di nuove piattaforme governante da nuove regole. Nelle profondità della rete, programmatori e innovatori continuano a costruire forme diverse di interpretazione della realtà e dunque nuove opzioni di convivenza connessa. Comprese quelle che riguardano i modi con i quali le società prendono decisioni politiche. E i primi segni di questo lavoro stanno conquistando lentamente il loro posto in rete. Dopo i media sociali, potrebbe essere ora dell’avvento dei media civici.

Le soluzioni in proposito non mancano. Uno studio offerto al Senato della Repubblica Italiana dalla Fondazione Ahref ne ha fatto una sintesi in uno studio che si trova online: I media civici in ambito parlamentare. Liquid Feedback, IdeaScale, Civi.ci e molte altre piattaforme si stanno affacciando all’attenzione delle istituzioni che cercano modi per rigenerare la loro relazione con la popolazione e rivitalizzare la democrazia. La ricerca che li conduce è consapevole del fatto che il codice è legge, l’algoritmo è regola e l’interfaccia è interpretazione: il che significa che i comportamenti degli utenti sono influenzati – spesso profondamente – dalla forma delle piattaforme. La civicità di quei comportamenti è il risultato probabile del design di quelle piattaforme, oltre che di molte altre cose relative al contesto storico e geografico nel quale vengono applicate. L’adozione di quelle piattaforme da parte delle popolazioni nelle loro relazioni con le istituzioni non dipende certo solo dalla forma delle piattaforme, ma di certo le conseguenze di quell’eventuale adozione sono precise per quanto riguarda il comportamento delle persone e dunque la qualità delle decisioni che prendono.

I media civici tengono conto, implicitamente o esplicitamente, di regole che riguardano il modo con il quale le persone si informano, si scambiano opinioni, aggregano le opinioni in istanze operative, votano per mettere in ordine di priorità le loro istanze e confrontano le istanze con i vincoli posti dalla realtà per verificarne la compatibilità per ritornare a generare informazioni e riaprire eventualmente il ciclo. Si danno media civici usati da popolazioni o gruppi che intendono auto-organizzarsi e si danno media civici usati per riqualificare la relazione tra le popolazioni e le istituzioni o addirittura i partiti e le aziende.

Quello che importa sottolineare è che le regole dei media civici sono regole strutturali che influenzano le decisioni. Quindi se la tradizione costituzionale viene presa in conto si possono ispirare i programmatori a costruire piattaforme che per regola tendano a generare comportamenti equilibrati nello scambio di informazioni, nella proposta di opinioni, nelle discussioni per organizzare le istanze, nella qualità della relazione tra le priorità desiderate e le compatibilità storiche vincolanti. Un equilibrio che riguarda la salvaguardia delle minoranze, l’efficacia dei sistemi decisionali, la qualità della documentazione che serve alle informazioni, la condivisione sui vincoli che definiscono le compatibilità, e così via. Non esiste ancora una piattaforma che faccia tutto questo. Ma la strada è segnata e non è detto che sarà mai serviva da una sola piattaforma.

Ma un fatto è certo: queste nuove proposte emerse dalle profondità della rete e dalla sua qualità generativa non potrebbero innovare il panorama socio-politico se l’internet non fosse neutrale, come diceva Lessig, rispetto alle persone e alle idee che fa circolare. E senza regole politiche non esisterebbe alcuna motivazione per pensare che internet possa restare neutrale, o che tenda ad essere facilmente accessibile a tutti. Gli incentivi di mercato, le esigenze delle grandi corporation capitalistiche, o altre forme di influenza sull’evoluzione dei valori e delle decisioni dei programmatori che fanno le piattaforme potrebbero benissimo fare evolvere la rete verso una condizione di accesso non universale a una internet non neutrale. Come è già avvenuto per esempio per quanto riguarda la rete mobile, un enorme successo scaturito da innovazioni tecnologiche, da posizioni conquistate sul mercato, da regolamentazioni sulle aste delle frequenze pubbliche, ma non da un dibattito democratico intorno a questa questione: se gli operatori controllano quello che può e non può passare sulla rete, gli innovatori possono presentare le loro idee solo chiedendo il permesso. E questo limita enormemente l’innovazione. Compresa quella politica, che in un certo senso potrebbe avere conseguenze sul potere dei tecnici e degli operatori. In realtà, la generatività di un sistema dell’innovazione sta nell’equilibrio tra le tensioni legate alle logiche della politica, le evoluzioni legate alla dinamica del mercato e, da non dimenticare, le collaborazioni e le opportunità legate alle condizioni dei beni comuni, risorse che non rispondono né allo stato né al mercato essendo di tutti e ciascuno, manutenute in base a consuetudini e regole sociali e culturali come la vecchia internet neutrale.

rodotà_democrazia_tecnologiaNe viene fuori il dibattito sull’Internet Bill of Rights. Che alla Camera dei deputati italiana ha dato vita a una Commissione dedicata. Il tema è arrivare a una dichiarazione dei diritti, come appunto il secentesco Bill of Rights britannico, per indirizzare le successive normative che riguardano internet tenendo conto degli equilibri che vanno mantenuti per sviluppare il bene comune della conoscenza rappresentato dall’internet salvaguardando e valorizzando i diritti umani che le diverse interpretazioni della rete possono sviluppare oppure comprimere. Il Brasile ha approvato il Marco Civil. E l’Italia, nel semestre del suo speciale servizio all’Europa, si prepara a contribuire a un tema decisivo per la vita civile.

Gli argomenti in discussione sono: la neutralità della rete, privacy e libertà di espressione, accesso universale, apertura dei dati pubblici, sicurezza. Questa è politica nel senso della costruzione di una visione costituzionale che serva a indirizzare le decisioni operative che si prendono in rete, con la rete, per la rete. Ovviamente è solo un aspetto della politica. Ma è quello fondamentale. Le policy non ne sono una conseguenza, ma se tutto va bene, non emergono senza tener conto dei principi costituzionali. E altrettanto si potrebbe dire del software che sostanzia quelle policy.

Già, perché alla fine dei conti, il modo più efficiente di fare le leggi e di farle funzionare è immaginare che siano a loro volta costruite come software.

La policy

Ci avevano pensato in molti. Anche gli scrittori di fantascienza Vernor Vinge e Tom Maddox. La loro visione era quella di uno stato che scrive le leggi come software e le fa applicare come tecnologie. Avevano, in quel lontano 1996, una visione un po’ troppo ispirata al terrore del Grande Fratello, ritenendo che l’efficienza del governo sia sempre collegata alla tentazione di raggiungere un maggiore potere autoritario e non avendo ancora visto quanto le piattaforme private possono ottenere in assenza di interventi statali.

Oggi le premesse per allargare la relazione tra policy e software si sono create. E andrebbero colte, nel rispetto del potenziale Internet Bill of Rights, per ottenere alcune conseguenze piuttosto decisive:

1. più facile accesso alla conoscenza delle leggi
2. più facile innovazione e semplificazione delle leggi
3. più chiaro funzionamento delle leggi
4. più chiare modalità per fare rispettare le leggi
5. più semplice valutazione dell’impatto delle leggi

Sacco_FrancescoViene da pensare, con l’economista Francesco Sacco che ne ha scritto su Nòva Il Sole 24 Ore, che al di là della domanda di diritti elaborata a fondo nel XX secolo, le popolazioni del XXI secolo chiedano anche e forse soprattutto risultati. “In Italia” scrive per esempio Sacco “gli imprenditori chiedono meno burocrazia e il Governo vorrebbe accontentarli. Ma ridurre la burocrazia, che si nutre di leggi, con nuove leggi, è una cura che funziona con difficoltà. Va cambiato alla radice il sistema operativo del Paese, il modo in cui esso stesso funziona. Da analogico-burocratico andrebbe trasformato in digitale-applicativo”. Quella di Sacco non è una metafora ma una proposta: “La maggior parte delle norme prescrivono – come farebbe un algoritmo – ciò che va fatto o potrebbe esser fatto al ricorrere di certe condizioni oppure, come fa un modello entità-relazioni per definire un database, sono definitorie di entità – soggetti o fattispecie – e/o delle loro relazioni”. Inoltre, per Sacco, questa proposta non è utopistica ma già in corso di attuazione: “In parte la trasformazione delle leggi in formato digitale-applicativo è già in corso. Ad esempio, l’intero Codice di Procedura Civile italiano, ma anche le statistiche di funzionamento di tutti i tribunali, sono già stati incorporati in un software (Epc) che è usato in Italia da tutte le principali banche e assicurazioni con circa 20mila operatori che gestiscono quotidianamente circa 150 miliardi di crediti incagliati in 1,5 milioni di pratiche distribuite su più di 15mila legali. I costi legali del recupero crediti si sono ridotti anche del 30%, ma, soprattutto, si sono ridotti enormemente gli errori procedurali con notevoli impatti sull’efficienza del recupero. Considerando che un miglioramento dell’1% vale 1,5 miliardi di euro, è un investimento sicuramente redditizio. Se fosse incorporato anche solo in parte nella gestione della giustizia italiana o dell’amministrazione, sarebbe una concreta rivoluzione” (Nòva). La stessa interpretazione delle norme è “digitalizzabile” almeno per quanto riguarda i temi più noti e stabilizzati e il sistema di condivisione della conoscenza giuridica progettato e realizzato dallo Studio Toffoletto De Luca Tamajo è una risposta già operativa che ha conseguenze rilevanti sul funzionamento dello studio e sul suo servizio ai clienti (Nòva).

I passaggi di maturazione di questa tendenza in altri paesi lasciano pensare che possa essere qualcosa di più di un’ipotesi. Nel Regno Unito tutto il corpus legislativo è ufficialmente online in un sistema che consente interrogazioni ed elaborazioni ampie ed efficienti (Nòva). In pratica ogni legge e ogni comma sono dotati di un identificativo unico e sono disponibili in formato aperto usando un’interfaccia programmabile (Legislation). Non è facilissimo, naturalmente. Ma si può immaginare che un buon sistema di programmazione su una base di dati come questa possa arrivare a riconoscere le leggi definitivamente abrogate, quelle che sono in funzione anche se sono state emendate e le renda più leggibili connettendo le norme e gli emendamenti in modo meno astruso di quello che si usa sulla carta (dove le nuove leggi sono infarcite di rimandi alle precedenti e non si riescono a leggere in modo semplice). In Italia, Normattiva è un inizio in questa direzione, anche se non gode dell’ufficialità che è invece attribuita alla versione inglese.

La digitalizzazione della normativa, la sua utilizzabilità con programmi che la analizzino, la sua interpretazione con l’ausilio di basi di dati giurisprudenziali efficienti rispondono all’esigenza di facilitare la conoscenza della legge e probabilmente aprono la strada a una concreta semplificazione.

Ma per quanto riguarda la facilità di applicazione delle leggi e delle modalità con le quali si fanno rispettare i passaggi progettuali vanno ancora approfonditi e sperimentati. Sacco ha un’idea, in proposito: “Partendo dalla ridefinizione recente delle banche dati d’interesse nazionale e dalle tre priorità definite dalla task force del precedente Governo (anagrafe unica digitale, fatturazione elettronica e identità digitale), l’intero processo legislativo potrebbe essere rivisto, puntando a definire prima ancora di una nuova legge la sua implementazione software e la sua integrazione all’interno del sistema informatico pubblico. La si potrebbe immaginare come una lunga serie di scelte fatta su un’app su Internet, ma che alla fine produce gli effetti desiderati in modo trasparente, eliminando tutta la carta che va in giro. Questa soluzione rispetto ad una norma “analogica” non solo sarebbe più flessibile per i piccoli aggiustamenti o chiarimenti, che sono sempre necessari ma avrebbe un costo di controllo e di enforcement praticamente nullo, perché ciò che non è possibile scegliere in un menu non può semplicemente essere fatto”.

Forse non tutte le leggi sono applicabili in questo modo. Ma di certo molte leggi che hanno un impatto pratico sulla vita quotidiana potrebbero essere fatte così. Non c’è nulla di strano: già oggi, ogni giorno seguiamo le leggi imposte dalla nostra applicazione preferita sul cellulare e non abbiamo problemi a rispettarle.

C’è poi una conseguenza in più di un’impostazione del genere. Poiché le leggi di questo tipo si rispettano usandole, cioè applicandole, il sistema in cloud che offre il servizio raccoglie informazioni. Potrebbe essere un Grande Fratello. Ma potrebbe essere un modo per valutare i risultati raggiunti da una legge. E correggerla in funzione della sua efficacia. Ma che si vada nella prima o nella seconda direzione dipende dal contesto costituzionale e politico. Oltre che educativo e culturale.

La rivalutazione della cultura tecnica in questo contesto politico, giuridico e amministrativo serve a impedire una rinuncia implicita alla capacità di governare la convivenza democraticamente che potrebbe avvenire in una società che non sia consapevole del fatto che il codice è codice. Serve a responsabilizzare i tecnici sottilineando come i loro valori e i loro comportamenti hanno una conseguenza culturale e sociale di primissimo ordine. Serve a motivare una politica di profondo investimento nell’educazione digitale della popolazione di una società che voglia almeno un po’ essere autrice del proprio destino.

Vedi anche
Rodotà: democrazia e tecnologia
L’oscurantismo, la ricerca, i diritti umani. E la Commissione alla Camera per i principi dell’Internet Bill of Rights

Questo post è un work in progress ovviamente. Spero molto nei contributi e nelle segnalazioni dei commentatori per arricchire di esempi esperienze e segnalazioni questa ricerca.

Chi vince piglia tutto: concentrazione, power law e net neutrality

La stima che non si può non provare per Carlo Alberto Carnevale Maffè, anche quando fa i suoi giochi di ruolo, impedisce di lasciar passare sotto silenzio la sua provocazione sulla net neutrality.

Dice Carlo Alberto che i dati parlano chiaro (a lui): la net neutrality (secondo lui) è un gioco in cui chi vince piglia tutto, cioè determina forme di mercato in cui ci sono pochi player dominanti e poco spazio per le piccole imprese; per provare questa idea mostra una tabella che dice qualcosa di molto diverso, cioè che nella app economy c’è una forte concentrazione (da DeveloperEconomics).

app_economy

Si è sbagliato, Carlo Alberto? Che c’entra la tabella con quello che dice? Ovviamente il suo è un ragionamento più sottile. Troppo sottile.

Che ci sia concentrazione nella app economy è un fenomeno emergente collegato alle regolarità tipiche di ogni rete.

Come scriveva Bernardo Huberman già negli anni Novanta nella competizione che avviene in ogni struttura a rete tende a esserci un grande vincitore per ogni categoria. L’effetto-rete infatti tende a dare geometricamente maggior valore alla tecnologia che viene usata di più e quindi quando una tecnologia decolla i competitori restano indietro, le risorse si concentrano sulla tecnologia vincente e alla fine ne resta una sola. Per ogni categoria.

Non ci stupisce la concentrazione nella app economy, dunque. Stupisce il collegamento “originale” di Carlo Alberto con la net neutrality. Andiamo a fondo.

In ogni rete c’è una tendenza alla concentrazione. La Microsoft degli anni Novanta aveva il sistema operativo dominante per effetto-rete. Google è il motore dominante per effetto-rete. Facebook è il social network dominante per purissimo effetto-rete. Che cosa c’entra la net neutrality? Un momento, ancora un passaggio…

Non solo nelle reti c’è concentrazione. Nell’automobile c’è concentrazione. Nella produzione di aerei per i passeggeri c’è iperconcentrazione. Qui la net neutrality proprio non c’entra. Anche nelle televisioni c’è concentrazione. E anche qui la net neutrality non c’entra. Anche nelle compagnie telefoniche c’è concentrazione: e sono loro che preferirebbero abolire la net neutrality…

Allora.

1. La concentrazione è un fenomeno del capitalismo che si collega a diversi fattori: mercati maturi, forti economie di scala, protezionismo statale, deregolamentazione del settore finanziario. (L’ultima è per provocare Carlo Alberto, ma è anche vera…).

2. La concentrazione nelle reti è un fenomeno tecnico delle reti. Ma vale per ogni categoria come spiegava Huberman. Cioè chi vince nei motori di ricerca non è detto che vinca nei social network. Chi vince nei sistemi operativi per pc non è detto che vinca nei sistemi operativi per telefonini. E così via.

3. La net neutrality è collegata alla concentrazione: ma esattamente al contrario di quanto sostiene Carlo Alberto.

In una rete neutrale nella quele improvvisamente si elimini la net neutrality, le forme di concentrazione acquisita rimangono. Niente le elimina. Quello che viene eliminato è la possibilità di nuove idee di provare a cercare il successo senza chiedere il permesso a chi controlla le reti. Viene eliminata la possibilità di fare concorrenza ai player dominanti esistenti.

Nelle reti neutrali chi innova può provare a cercare il successo senza chiedere il permesso a nessuno. Se riesce a inventare una nuova categoria di rete (come ha fatto Steve Jobs con l’iPhone) o a giocare meglio di altri in una categoria emergente (come è successo a Facebook), può sperare di acquisire una certa forza di mercato e dominare la sua categoria. Abbassando dunque la concentrazione nel sistema internet nel suo complesso. Se non c’è net neutrality questo non può avvenire.

La prova è data da ciò che avviene nella rete mobile dove non c’è neutralità: in quel contesto, gli operatori possono scegliere a quali applicazioni concedere la loro rete e alcuni di essi hanno impedito per esempio l’uso di Skype. Il che significa che senza neutralità non si fa innovazione senza chiedere il permesso degli operatori. Se un’innovazione non piace agli operatori non può andare sul mercato, come sarebbe accaduto a Skype se non ci fosse stata neutralità nella rete fissa. Senza neutralità dunque c’è più concentrazione non meno concentrazione.

L’oscurantismo, la ricerca, i diritti umani. E la Commissione alla Camera per i principi dell’Internet Bill of Rights

Vale la pena di dedicare attenzione ai lavori della “Commissione di studio promossa dalla Presidente della Camera dei deputati, Laura Boldrini, per elaborare principi e linee guida in tema di garanzie, diritti e doveri per l’uso di Internet”?

Per rispondere positivamente occorrerebbe ipotizzare che il tema sia legittimo e importante, che la partecipazione allo studio sia aperta ai cittadini di buona volontà che vogliono contribuire civicamente e che il risultato possa effettivamente avere un valore intellettuale, politico e organizzativo.

Si tratta di ipotesi che possono effettivamente trovare una verifica solo all’atto pratico, cioè seguendo i lavori (e giusto per trasparenza avrò modo di seguirli direttamente avendo ricevuto l’onore di essere invitato a partecipare alla Commissione). Discutendo di questi aspetti, molti hanno già risposto positivamente o negativamente. Vale la pena di osservare in proposito che una valutazione preliminare su queste cose è necessaria, ma una risposta certa alle ipotesi citate rischia di essere vagamente ideologica – in positivo o in negativo – oppure basata su uno scetticismo radicato, non privo di motivazioni ma certamente inutile a chi speri che si possa tirar fuori un risultato positivo da una nuova sfida. Anche perché le previsioni sui risultati di un’azione non si possono basare solo sull’esperienza precedente: in effetti, ciò che avverrà dipende da chi partecipa, in aula e sui media civici. Sappiamo infatti che la Commissione funzionerà alimentando e ascoltando anche una consultazione aperta in rete: con questo almeno la seconda delle tre ipotesi trova già risposta. Per il resto, anche in questo caso, il futuro non è ciò che succederà ma la conseguenza di ciò che facciamo.

Per prepararci alla prima questione – se cioè il tema sia legittimo e importante – si deve affrontare di petto il tema di fondo di molte discussioni sulla relazione tra norme e internet. Esiste infatti un’idea diffusa secondo la quale internet non abbia bisogno di intervento normativo, perché funziona bene com’è e perché qualunque intervento normativo rischia di rovinarla. E – accidenti! – quel rischio è talmente reale, come si è dimostrato in una quantità di casi così grande, che si fatica a dipanare la matassa.

Ma prendiamo il caso fondamentale della net neutrality. Internet funziona bene com’è se la rete è neutrale nei confronti dei pacchetti di dati che la percorrono. Se non c’è net neutrality non c’è internet. E qualcuno che faccia la norma che garantisce la net neutrality c’è: può essere la compagnia telefonica che gestisce la rete, può essere la comunità dei tecnici che progettano la rete, può essere lo stato o una comunità di stati. Molte telco tendono a sperare di poter abolire la net neutrality per sostituirla con un concetto più vago di “internet aperta” ma il cui traffico può essere prioritizzato a loro discrezione. Un gruppo di società – tra le quali Google, Facebook, Netflix, eBay come si diceva – chiede invece che la net neutrality sia garantita per legge ed estesa anche alla rete mobile. Moltissimi cittadini non sanno di che cosa si sta parlando. Ma appena viene spiegata la questione, non si fatica a comprendere che dalla net neutrality dipende l’innovatività del sistema, perché essa non concede ai poteri economici esistenti l’arbitrio sull’innovazione – e sull’informazione – che può e non può arrivare a proporsi ai cittadini. In Brasile lo stato è intervenuto con il Marco Civil e ha stabilito che la net neutrality va garantita per legge. Se non c’è una legge, le compagnie non possono fare ciò che vogliono. Se non c’è una legge la net neutrality non è garantita. Questa è una scelta che può essere legittimamente posta all’attenzione di un organismo politico come il Parlamento. Altrimenti i cittadini sensibili al tema potranno difendersi soltanto costruendosi una nuova rete, neutrale non per legge ma per regola cooperativistica: ma, per la verità, questa è un’alternativa inutilmente utopistica.

La net neutrality garantita dalla legge è un esempio di una regola di tipo “costituzionale” per la rete.

Un altro esempio può essere il diritto di accesso universale in larga banda. Se la società della conoscenza può essere vissuta appieno solo avendo la possibilità di accedere alla rete in condizioni adeguate e se il mercato non è in grado di raggiungere ogni area abitata, è legittimo che un intervento normativo si occupi della questione.

Forse fin qui si può immaginare un consenso relativamente largo. Anche se gli avversari della net neutrality sono potenti lobbisti non si può negare che il tema – qualunque sia la scelta che si prenderà – sia legittimamente un tema adatto a essere preso in considerazione dalle norme. E anche se il diritto all’accesso universale andrebbe certamente accompagnato dal diritto a un’istruzione significaticamente diffusa all’uso della rete e dal diritto ad avere servizi pubblici adeguati che ne motivino l’utilizzo. Si tratta peraltro di corollari importantissimi che non mettono in discussione la legittimità di normare il diritto all’accesso.

Di certo, le controversie diventano più intricate quando si va su temi più puntuali come il copyright, le tasse, il cyberbullismo e molte altre questioni che inducono i legislatori a proporre leggi dedicate a internet.

A questo proposito la Commissione – va sottolineato – non si occupa delle singole norme ma del metodo con il quale si prendono in considerazione e si adottano. Quindi su questo si può arrivare a una forma “costituzionale”, una forma di metodo, che sia orientato a indirizzare le norme in materie collegate a internet in modo che tengano conto consapevolmente della complessità dell’ecosistema internettiano. Chissà se uscirà una indicazione sulla necessità di un processo multistakeholder. Chissà se si riuscirà a stabilire che le linee guida devono tener conto di una valutazione di impatto digitale. Chissà se si potrà arrivare a suggerire un approccio equilibrato in modo che l’intervento in un particolare settore non sia tale da produrre conseguenze negative in un altro settore nell’inconsapevolezza del legislatore. Questo è il tema costituzionale della Commissione: come garantire che le nuove leggi relative a internet non siano create se se ne può fare a meno e che se sono create siano consapevoli dell’equilibrio degli interessi e dei diritti che presumibilmente vanno a toccare. Tutto questo è estremamente complicato, ma se non si pone il problema non se ne esce e continuiamo a vivere in uno stillicidio di tentativi normativi pericolosi e inconsapevoli: con la conseguenza di continue fiammate di opposizione che finiscono per alimentare un approccio ideologico alle questioni internettiane che presenta limiti molto significativi.

Un’ideologia fondamentalista oscura ogni tentativo di ricerca volta alla comprensione di come stanno le cose in nome di un’interpretazione del mondo che conquista gli animi ma diventa potere. In “Edeologia, Critica del fondamentalismo digitale”, qualche anno fa, mi sono esercitato intorno all’idea che questo fenomeno appartenesse anche al modo con il quale qualcuno interpretava la rete internet. Libro ingenuo, Edeologia (con la “e” di elettronica ovviamente), reagiva alle catastrofiche conseguenze della strumentalizzazione finanziaria del senso di internet sul finire degli anni Novanta che era sfociata nella bolla e nel suo scoppio. Le crisi finanziarie non sarebbero mancate anche successivamente, separate da internet: ma l’edeologia avrebbe continuato latente e in alcuni casi evidente.

Un’ideologia può avere una funzione positiva. Nel caso della rete – una tecnologia che non ha alcun valore se nessuno la usa ma che acquista enorme valore se molti la usano – l’edeologia è servita a convincere le persone a dedicare tempo a internet prima che questa avesse valore in vista di un valore successivo che effettivamente si è realizzato. Ma questo si applica anche ad altre tecnologie di rete, meno neutrali e innocenti, come le piattaforme per la ricerca di informazioni in rete, i social network privati, i servizi che servono a cercare l’anima gemella e così via. Una tensione ideologica resta latente nella rete proprio perché ogni volta è indirizzata a convincere la gente a usare una tecnologia che all’inizio non ha valore e solo quando viene usata ne acquista. Creando non poche conseguenze negative.

Se si lascia solo alle piattaforme private e ai gestori privati delle reti il potere di fare le vere norme che guidano il comportamento delle persone in rete si rischia di perdere quello che la rete come bene comune è riuscita a creare finora. Un’ideologia che si opponga all’intervento pubblico in materia di internet in ogni situazione e su ogni aspetto finisce semplicemente per rafforzare il potere delle grandi compagnie private e ridurre conseguentemente quello dei cittadini. Un’ideologia americanofila che si accontenta di ripetere i mantra lanciati da Silicon Valley non serve all’evoluzione di internet come grande tecnologia innovativa e serve soltanto il successo delle proposte delle compagnie private.

Allo stesso modo, un approccio normativo statalista che pensa in modo distorto alla rete e interviene in modo capillare e inconsapevole è a sua volta enormemente negativo sullo sviluppo innovativo della rete. E imparare dagli americani non è certo un male da questo punto di vista.

Ma si può fare di più. Si può fare ricerca, senza oscurantismo, sulla possibilità di arrivare a una sorta di approccio costituzionale alla rete, in nome dei diritti umani e dell’equilibrio dell’ambiente digitale. È un percorso di ricerca che parte dalla tradizione illuminista intorno ai diritti umani e dalla prassi innovativa dell’ecologia. I successi di questi percorsi ci impediscono di pensare che sia impossibile arrivare a una consapevolezza sull’”ecologia di internet” e sul rilancio dei diritti umani in un’epoca in cui sembra ce ne sia crescente bisogno, non solo nei confronti dell’autocrazia politica ma anche nei confronti della tecnocrazia. Per questo discutere di un Internet Bill of Rights è legittimo e può anche finire con un risultato utile. Dipenderà dai membri della Commissione e soprattutto dai cittadini che parteciperanno alla consultazione.

Da leggere:
Vincenzo Ferrone, Storia dei diritti dell’uomo, Laterza 2014
Marc Augé, L’antropologo e il mondo globale, Cortina 2014 (v.o. 2013)
Stefano Rodotà, Il diritto di avere diritti, Laterza 2012
Antonio Floridia, La democrazia deliberativa: teorie, processi e sistemi, Carocci 2012
Byung-Chul Han, La società della trasparenza, Nottetempo 2014 (v.o. 2012)

Educazione come dimensione della vita: il nuovo spazio da creare per la scuola

Nell’economia della conoscenza l’educazione è come l’investimento e la ricerca è il generatore di valore aggiunto che consente di tenere a distanza i concorrenti. Non si compete senza conoscenza, diffusa e generativa. La riprogettazione della scuola deve partire da una visione e concretizzarsi in un piano d’azione.

Le persone e le strutture che ci lavorano sono straordinariamente importanti. Per aiutarle occorre riuscire a condividere un modo di vedere innovativo.

Innanzitutto prendiamo atto che l’educazione non è una dimensione limitata al mondo della scuola, ma avviene nel corso di tutta l’esistenza. Dunque non hanno senso le progettazioni autoreferenziali che non si confrontano con il contesto nel quale la scuola vive e si sviluppa. Inoltre, non hanno senso le concezioni che pensano alla scuola come a un erogatore di servizi a fronte del pagamento che le famiglie e le imprese sono chiamate a erogare in forma di tasse di vario genere. La crisi della relazione tra la scuola e il resto della società è profonda, legata alla grande trasformazione in atto, alla quale sia la scuola che le famiglie e le imprese arrivano dopo decenni di sfruttamento. I docenti hanno subito un attacco concentrico che ne ha abbattuto il prestigio e il tenore di vita, segregandoli in una parte della società meno patinata di quella proposta dalla televisione: la banalità del male consumistico, con la sua proposta di scorciatoie per il benessere, si è abbattuta sull’impegno richiesto dalla scuola demotivando molti. Nello stesso tempo, famiglie e imprese hanno subito una pressione fiscale sempre più significativa limitando la loro volontà di partecipare attivamente all’educazione pubblica e casomai costringendo a investimenti in educazione particolaristici, orientati alle skills dei figli o dei dipendenti ma non al miglioramento delle opportunità per l’insieme della società.

In secondo luogo, teniamo conto che parlare di educazione significa distinguere tra addestramento, istruzione e formazione. Prendiamo atto che nella nuova società della conoscenza il grande successo è valorizzare i talenti di tutti, nelle loro diversità e peculiarità. E che la valorizzazione dei talenti richiede connessione con la società nel suo insieme, perché è nella complessità della vita sociale che ciascuno può scoprire i propri talenti, esprimerli ed essere riconosciuto.

L’addestramento riguarda il saper fare. L’istruzione riguarda le conoscenze intellettuali di base. La formazione è la maturazione della personalità nel suo insieme in relazione al contesto. I talenti si valorizzano solo in relazione alle diverse opportunità offerte dalla vita sociale ed esistono se si scoprono, si esprimono e sono riconosciuti.

Tutto questo abbatte concettualmente le tradizionali barriere tra scuola e resto della società. Ma come si riparte da qui?

La nuova didattica, la formazione dei docenti, la gamification dei metodi, sono elementi della soluzione. Ma vanno rivalutate le connessioni alla vita sociale.

Per esempio, riconoscendo che la struttura mediatica sulla quale avviene l’educazione non è solo chiusa nelle quattro mura della scuola e nei libri di testo. La guida dei docenti si rivaluta in relazione alla sua capacità di interpretazione dei saperi in relazione alla società, al suo passato e al suo futuro. E’ possibile ripensare la piattaforma dell’educazione. Gli algoritmi di base vanno ripensati: non è più vero che la regola d’oro a scuola è “non sbagliare” rispondendo alle domande del docente. E’ vero piuttosto che vanno rigenerati nuovi algoritmi che sviluppino le forme di apprendimento che avvengono per imitazione, per memorizzazione e per sperimentazione. Il nuovo algoritmo, dunque, è che in alcuni casi, si può sbagliare, purché si faccia esperienza. E poi la gamification introduce tutta una nuova serie di algoritmi, che tra l’altro prevedono la collaborazione, spesso, o talvolta addirittura la copiatura (specialmente nel caso dell’apprendimento del software).

Tutto questo non si risolve in un colpo solo. Anzi. Probabilmente si svolgerà attraverso una quantità di progetti che vedano la partecipazione di diversi elementi della scuola, della società, delle imprese, delle famiglie. Questi progetti potrebbero essere incentivati.

Si può creare uno spazio incentivante per questi progetti, un po’ come è stato fatto per le startup. Un ambiente liberato da eccessi di burocrazia e fisco che favorisca la progettualità. Accompagnato da una piattaforma nella quale i progetti vengono comunicati: obiettivi, strumenti, risultati. In modo che in chiave di mutuo soccorso chi lancia i nuovi progetti possa contare sull’esperienza di chi ne ha lanciati di simili in passato.

Il paese può pensare all’educazione come una grande piattaforma che acceleri le iniziative progettuali orientate alle funzioni dell’apprendimento, dell’istruzione, della formazione. In un’ottica aperta alle diversità. Per valorizzare i talenti. A partire da quelli compressi, spesso ingiustamente, dei docenti. E per favorire le famiglie e le imprese che contribuiscono. Imho.

Fuffa e manipolazione. Esperimenti di Facebook sugli utenti, tipo: “se ti selezioniamo solo i post degli amici contenti tu sei più contento?”

Che cosa succede se vediamo che gli amici e i conoscenti sono contenti? Proviamo invidia o siamo contenti anche noi? Secondo uno studio condotto su oltre 600 mila persone per una settimana, è probabile che se vediamo che gli altri sono contenti, anche noi lo siamo. E viceversa. La felicità e la gioia sono contagiose. Come la depressione e la noia.

Ma come è stato fatto questo studio? Manipolando i post che oltre 600 mila persone trovavano su Facebook. Stupisce un po’, ma a quanto pare Facebook ha condotto uno studio sugli utenti modificando per via algoritmica il genere di post che ricevevano per vedere l’effetto che faceva su di loro: se facevano vedere prevalentemente post contenti gli utenti diventavano più contenti; se facevano vedere solo post depressi gli utenti diventavano depressi (Forbes e AnimalNY). E i ricercatori hanno pubblicato un paper intitolato “Experimental evidence of massive-scale emotional contagion through social networks” che riporta i risultati del loro lavoro:

We show, via a massive (N = 689,003) experiment on Facebook, that emotional states can be transferred to others via emotional contagion, leading people to experience the same emotions without their awareness. We provide experimental evidence that emotional contagion occurs without direct interaction between people (exposure to a friend expressing an emotion is sufficient), and in the complete absence of nonverbal cues.

Uno degli autori, Adam Kramer, data scientist, spiega come essere a Facebook sia una fortuna per uno che voglia fare ricerca sulle emozioni collettive.

A quanto pare nessuno dei ricercatori si è posto il problema etico di manipolare le pagine che gli utenti vedono su Facebook senza avvertirli per studiare le loro reazioni e pubblicare un paper. Ovviamente i termini e condizioni di Facebook consentono tutto questo. Basta saperlo.

Ma la conseguenza di questo studio è anche un’altra. Con internet diventa abbastanza semplice inventare nuove forme di manipolazione della visione del mondo delle popolazioni. La televisione resta ancora la regina della manipolazione, evidentemente, ma internet comincia a essere usato in questo senso e può diventare piuttosto efficace (cfr: Agenda setting e altre forme di design della mente, per così dire, per via mediatica, con il famoso caso ricostruito da Ilvo Diamanti da non dimenticare mai sulla televisione e la sensazione di insicurezza degli italiani negli anni attorno al 2006-2007; cfr. Credimi!). Questo funziona tanto meglio quanto più l’attenzione e il traffico su internet si concentra sulle piattaforme giganti e quanto meno è distribuito tra molte modalità di utilizzo e partecipazione. Evidentemente questo è un altro motivo per considerare la net neutrality una garanzia fondamentale per i diritti degli utenti: almeno se qualcosa non va si può tentare di realizzare una soluzione alternativa. Ma la manipolazione via internet funziona anche per settori abbastanza di nicchie e su piattaforme meno gigantesche ma ben studiate per gestire messaggi a una direzione.

C’è anche, insomma, una conseguenza di merito: le emozioni sono contagiose e se i messaggi sono omogenei ci muoviamo in gruppo. Soprattutto quando abbiamo poca consapevolezza delle motivazioni possibilmente manipolatorie dei messaggi positivi o negativi che riceviamo.

Essere consapevoli operando sui media è una condizione di libertà. La fuffa emozionante è manipolatoria. I maestri del tifo sono manipolatori. La conseguenza che generano è che probabilmente una parte dei loro seguaci abbassano il livello del senso critico. Se abbassano il senso critico possono anche finire col compiere scelte sbagliate. Un ambiente gestito per alimentare un entusiasmo senza critica è un ambiente nel quale aumentano le probabilità di truffe e disillusioni. La cosa è più concreta di quanto sembri. Ci sono mille esempi di sette, comunità chiuse, sistemi per approfittare della debolezza dei singoli ma anche della forza di trascinamento dei gruppi: il contagio delle emozioni è un fenomeno ormai chiaro e alimenta precise tecniche di manipolazione.

È successo all’epoca della bolla delle dot.com. Tutti entusiasti. Molte persone hanno perso il senso critico. Tantissimi sono restati col cerino in mano.

Sta succedendo anche nella piccola bolla delle startup in Italia? Certo di qualche imbroglio si comincia a sentir parlare. E non stupisce che avvenga proprio negli ambienti che meglio gestiscono la generazione di entusiasmo, anche a scapito del senso critico e della competenza.

Come all’epoca delle dot.com la bolla non era causata da internet ma da chi approfittava della credulità della gente, così oggi i problemi non sono certo delle startup, ma di chi approfitta della debolezza degli altri.

Un sistema mediatico scoraggiante e tale da generare solo scetticismo è altrettanto negativo e in certi casi anche di più.

Occorre un’ecologia dei media. Alla ricerca di un equilibrio. Senza paura dell’apparente impopolarità di chi non segue acriticamente il gruppo ma con il coraggio di sviluppare progetti sensati.

Spesso negli ambienti in cui si coltiva la visione critica l’entusiasmo diminuisce e i numeri che segnalano l’attenzione delle persone si abbassano. Nel breve periodo. Ma nel lungo termine valgono di più. Può essere noioso cercare di entrare per esempio in un acceleratore professionale per sviluppare la startup, ma è anche così che si costruisce un’impresa. Occorre imparare tanto. E soprattutto saper distinguere, dentro e fuori di sé, tra la fuffa e i fatti. Il senso critico si apprende con l’esperienza. E facendo esperienza l’entusiasmo si rafforza con il feedback che arriva dai fatti e non solo dalle parole di chi ci incoraggia. Il senso critico, empirico, non è solo un crap detector per non prendere cantonate: è anche uno strumento per coltivare una gioia più profonda, che non dipende solo dal contagio degli altri, che nasce soprattutto da noi stessi in relazione ai nostri progetti e alle capacità che acquistiamo per realizzarli.

Rai servizio pubblico per la rete

L’Associazione dirigenti Rai ha organizzato ieri un convegno sul futuro dell’azienda. I giornali ne hanno parlato in vario modo, sottolineando gli aspetto più legati all’attualità. Ovviamente il tema dei tagli è stato in prima linea. Sono state riportate le principali posizioni anche delle persone che per competenza ed esperienza erano davvero titolate a parlare in quella sede. A me hanno chiesto un parere sulla relazione tra Rai e rete.

Ho detto questo che un servizio pubblico fiorisce in un contesto che riconosce il valore della sfera pubblica, nella quale si incontrano civicamente le persone che convivono in un territorio anche se non si piacciono o non hanno valori simili. Lo spazio pubblico è lo spazio in cui abbiamo qualcosa in comune da coltivare e sviluppare insieme. Internet è un bene comune e la sua progressiva privatizzazione rischia di portare a uno sfruttamento eccessivo di quel bene comune. Un servizio pubblico lavora anche per salvaguardare e sviluppare quel bene comune della conoscenza che internet rappresenta e aiuta a manutenere. Piattaforme, informazioni, formazione che rafforzino internet come bene comune sono compiti di una Rai coraggiosa. E torneranno alla Rai in termini di riconoscimento, valorizzandone e legittimandone il senso speciale di servizio pubblico.

Ecco il video:

La corte suprema, la proprietà intellettuale e l’applicazione dei principi

C’è chi riesce a fermarsi alla seguente affermazione: “i brevetti sono un modo per ripagare l’industria degli investimenti che compie in ricerca”. Non approfondisce di quali brevetti parla e di quali conseguenze genera l’interpretazione della normativa sui brevetti. Allo stesso modo c’è chi riesce a fermarsi a un’analoga affermazione sul copyright (“ripaga gli autori della loro fatica”) senza riconoscere le diverse conseguenze che provoca la durata del copyright, l’estensione della sua applicazione, le modalità del suo enforcement.

Chi parla solo per principi indiscutibili e generici provoca danni, per esempio difendendo cose come il “brevetto dei metodi incarnati in un software” in America e l’”equo” compenso per la copia privata in Italia.

Ma la Corte Suprema degli Stati Uniti ha deciso che un brevetto concesso su un’idea consolidata incarnata in un software non poteva essere valido. Con questa decisione secondo molti osservatori, la Corte ha bloccato l’espasione e in parte minato l’esistenza dei brevetti sul software che non sono legati al funzionamento delle macchine.

Che cosa significa? Per chi ragiona solo in termini di principio significa che la Corte ha attaccato il libero mercato e il finanziamento della ricerca. In realtà, ha abbattuto uno dei motivi di litigio inutile e dannoso nell’industria tecnologica, aprendo la strada a un approccio più europeo alla questione. E l’incremento esplosivo dell’”equo compenso” sui telefonini italiani per ripagare autori ed editori è invece una soluzione che dimostra quanto l’Italia sia governata da veri liberisti? In realtà, dimostra che una lobby (Siae) ha vinto su un’altra (Confindustria digitale), come riporta la Stampa.

L’autodeterminazione dei bit e la costituzione

Bella discussione. Ieri alla Camera le riflessioni sulla Internet Bill of Rights. Suggestioni, esempi, confronti per pensare a una sorta di costituzione della rete. Poi Mantellini con il suo post Lasciate stare Internet, sostenuto da E-volution. E Ket con il suo ricordo della costituzione per i bambini in Brasile. Infine GG che sottolinea il valore delle regole emergenti dalla rete.

La rete si è sempre autoregolamentata. Ma, bisogna pur ammetterlo, nell’ambito delle regole esistenti. Implicite o esplicite. Le regole delle telecomunicazioni, come quando gli americani hanno obbligato le telco a consentire l’utilizzo delle reti telefoniche per ascoltare i primi vagiti di internet. Le regole del commercio. Le regole fiscali. Le regole del lavoro, della finanza, del copyright, della diffamazione. I divieti europei ai siti di estrema destra che invece non ci sono in America: con il primo caso incredibile allora della richiesta francese a Yahoo! di eliminare le pagine che promuovevano materiali filonazisti. L’attenzione europea alla privacy, molto superiore a quella riservata allo stesso argomento in America. Le regole sul brevetto del software, possibile in America e non in Europa. Senza contare le regole iraniane, cinesi, russe sui media, la libertà di espressione, la libertà d’impresa. Di regole ce ne sono fin troppe intorno a internet. Questo è chiaro. E il meglio, internet lo dà quando le regole sono chiare, semplici, abbastanza poco interventiste. L’autoregolamentazione a base di Icann ha funzionato, all’interno delle regole date. Ogni nuova regola ha sempre rischiato di produrre danni. Anche danni o solo danni.

All’interno di questi limiti normativi, la rete è effettivamente autogovernata da leggi matematiche e geometriche abbastanza misteriose ma molto potenti. Come la famosa regola individuata da Bernardo Huberman: il vincitore piglia tutto, diceva, nel senso che quando un servizio conquista una leadership nelle tecnologie di rete tende a sbaragliare i concorrenti. Fino a che non arriva un’altra tecnologia di rete spiazzante, che cambia le regole del gioco: sembrava che nelle tecnologie di rete il sistema operativo della Microsoft fosse il padrone assoluto, ma nel nuovo contesto spiazzante di internet non ha tenuto il centro della scena e quando si è diffuso l’accesso mobile è andato, per così dire, in secondo piano. Così, si può anche lamentare l’iperpotere di chi ha vinto con la power law. Google per esempio, ma sapendo che qualcuno potrebbe inventare la prossima struttura capace di spiazzare il potente di turno. E’ il bello di internet, in effetti: qualunque difetto, problema, ingiustizia, concentrazione di potere può trasformarsi nell’opportunità di innovare ulteriormente.

Può? Sì, fintanto che esiste la net neutrality. Si tratta di una regola che garantisce a tutti i pacchetti di viaggiare in rete senza privilegi. E una regola che consente di innovare senza chiedere il permesso agli incumbent, che siano telco o over-the-top. Ma la net neutrality è una regola. E’ una regola che protegge il bello di internet, non lo limita. E’ una regola che deriva dalla consapevolezza di un principio fondamentale dell’ecosistema dell’innovazione, che rende la rete tanto ospitale per l’innovazione. La net neutrality non c’è nell’internet mobile ed è attaccata in modo ossessivo da alcune lobby in America e persino in Europa. In Brasile, grazie al Marco Civil, la net neutrality è invece protetta per legge. Una legge che salvaguarda internet.

Non si dovrebbe pensare che ogni regola sia un limite. Ci sono regole che liberano. E che proteggono la libertà. L’antitrust è una regola: e protegge la libertà di fare concorrenza. La net neutrality è una regola e protegge la libertà di innovare, cioè la concorrenza futura o almeno potenziale.

La net neutrality è una regola pensata da chi comprende la dinamica dell’ecosistema internettiano.

Scommetto che persino Mantellini è abbastanza d’accordo. Ma ci sono altri temi di riflessione. Altre leggi pendenti. E altri rischi possibili, se le leggi sono introdotte senza comprendere internet. Sul copyright se ne sono viste tante del genere. Così come quando si è pensato di contrastare l’ottimizzazione fiscale di Google introducendo una furbata sull’iva in un solo paese, come l’Italia per di più. E sulla base di queste esperienze, Mantellini ha pienamente ragione a essere sospettoso.

Ma il tema costituzionale non è orientato alle regole specifiche. Nello stato la costituzione non regola le singole attività ma il modo con il quale si arriva a fare le regole sulle singole attività. La regola costituzionale è un metodo. E si concentra sulla salvaguardia dei principi umani o civili intorno ai quali tutti si dovrebbero riconoscere in nome del bene comune. Ovviamente non c’è nulla di oggettivo in una costituzione: ma la costituzione è una regola-ecosistema, non una regola-limite. E’ in base alla costituzione che poi emergono le regole specifiche, le regole scritte dalla matematica delle reti, le regole scritte dai parlamenti, le regole scritte dai softwaristi e le regole scritte dai consigli di amministrazione. Una costituzione può essere esplicita o implicita: internet ne ha avuta una implicita per molto tempo, ma in base alla net neutrality. Se dovesse essere abolita la net neutrality, ogni altra regola emergente troverebbe il limite delle regole decise dagli incumbent. Una regola che protegga la net neutrality è una liberazione non un vincolo.

In realtà, una regola di tipo costituzionale serve a salvaguardare e valorizzare i principi fondamentali. Questi principi, ispirati alla riflessione e codificazione dei diritti umani, costituiscono uno spazio civico orientato al bene comune di valore generale. Non sono la panacea di ogni male, ma un modo per fare avanzare la civiltà in una prospettiva di qualità della convivenza. Non risolvono le contraddizioni che si generano nei contesti nei quali i conflitti, l’ignoranza, la distrazione, la disinformazione, gli interessi di lobby e molti altri fenomeni favoriscono applicazioni normative poco desiderabili. Ma hanno un valore educativo e spesso impediscono che i conflitti tra interessi diversi degenerino.

In mancanza di regole, il mercato degenera nel capitalismo, si potrebbe dire con Fernand Braudel. La legge del più forte si impone se non c’è una costituzione che salvaguarda il debole. Internet non è altrove, rispetto a queste tematiche. Non la lasceranno stare, purtroppo. In Brasile hanno deciso di introdurre una regola che impedisca di rovinare internet con regole sbagliate. Gli altri paesi troveranno la loro via, forse. Se non ci si pensa, però, si rischia di veder prevalere le regole scritte nel software delle grandi piattaforme che le persone usano tanto volentieri anche quando ne va della loro privacy o della loro libertà di espressione.

Un modo di pensarci è scrivere nuovo software, nuove piattaforme, che siano basate su un codice civicamente avvertito. Nuove piattaforme che abbiano le stesse caratteristiche di utilità, divertimento, facilità delle piattaforme usate oggi: ma che garantiscano che i dati siano aperti, la privacy sia salvaguardata, la libertà di espressione sia salvaguardata. E’ possibile. No?

Asimmetrie internettiane in contesti di crisi, repressione, liberazione

Appunti di background, in riferimento alle discussioni sulla costituzione per internet che domani si terranno alla Camera.

Il sistema mediatico tradizionale strutturato in base al broadcast era caratterizzato da un’asimmetria fondamentalmente coincidente con l’asimmetria nella distribuzione del potere e della ricchezza. Una gerarchia piuttosto stabile nel sistema economico e politico correva parallelamente a una gerarchia piuttosto stabile nei media che governavano l’informazione e la notorietà. Con la crescita della complessità della società, il potere politico si è trovato a dipendere in modo crescente dal potere dei media tradizionali.

Il sistema mediatico strutturato in base a internet modifica profondamente la logica delle asimmetrie, tendendo a farle coincidere non con l’ordine gerarchico tradizionale ma con la complessità contemporanea dell’ecosistema economico, politico, sociale, culturale. Le gerarchie non vengono certo abolite, anzi giganteggiano, ma non sono date, piuttosto emergono in un’ebollizione continua di coevoluzioni. Il flusso di informazioni in rete è un enorme insieme di fenomeni contraddittori: un’infinita serie di conflitti per la conquista di ogni possibile nicchia di sviluppo si accompagna a una fantastica varietà di operazioni simbiotiche generative. La competizione si accompagna alla cooperazione, la shark economy convive con la sharing economy.

Occorre un nuovo pensiero sull’equilibrio dei poteri nel mondo di internet?

In contesti di crisi la nuova struttura appare in grado di sorpassare le forme censorie tradizionali in modo inarrestabile. I casi sono innumerevoli, sia in paesi autoritari che in paesi democratici. Ovviamente, una rivolta che riesca a superare i limiti posti dalla censura non diventa una vera rivoluzione se non si accompagna con una elaborazione intellettuale profonda e vasta nella visione di ciò che si vuole distruggere e di ciò che si vuole costruire. Ma, tanto per fare un esempio, il blog di Patrick Meier offre una messe di esempi di momenti storici nei quali la struttura mediatica internettiana ha reso possibile l’impossibile. E ovviamente è imprescindibile per la discussione intorno a questi aspetti il blog di Ethan Zuckerman. Quando le crisi sono gigantesche, come nel caso di un disastro naturale, la quantità di persone che offrono spontaneamente informazioni è troppo grande per poter essere controllata. E anche in un paese come l’Inghilterra, nel caso dell’attacco terroristico del 2005, la versione ufficiale sostenuta dalle autorità nelle prime due ore è stata spazzata via da migliaia di foto, video, resoconti spontanei delle persone che vedevano quello che stava succedendo in prima persona. La disponibilità a costo relativamente basso di telefonini, droni, sensori, connessi a internet rende praticamente impossibile bloccare il flusso di informazione che emerge dalla rete nei casi di crisi, anche se i regimi imparano a disturbare la rete in modo sempre più sofisticato.

Insomma, una sorta di asimmetria a favore delle grandi quantità di persone connesse in caso di crisi è una novità rispetto all’antico regime mediatico. Ma occorre una crisi oggettiva che spinge la maggior parte delle persone a intervenire informando in modo oggettivo. In modo tale da ottenere una concentrazione di consenso imbattibile.

Quando invece una crisi è generata da un gruppo di persone con un’agenda la situazione è diversa. Una serie di rivolte può prendere di sorpresa i regimi. Ma i sistemi di controllo dei poteri tecnocratici tendono ad adattarsi e a crescere in modo almeno altrettanto veloce dei sistemi degli oppositori. In primo luogo, per le stesse dinamiche della competizione per le nicchie di attenzione intrinsecamente connesse alla logica della rete, qualunque agenda trova il suo sistema di troll che ne erode la credibilità. In secondo luogo, i regimi imparano a costruire lentamente ma inesorabilmente una fitta maglia di punti di osservazione che avviluppa gli oppositori e li mette in difficoltà, come si vede in Cina, in Iran, nell’occidente spiato dagli Usa e in molti altri luoghi. L’asimmetria che emerge col tempo nei regimi che conoscono la rete e sanno come sviluppare la maglia dei controlli capillari è peraltro difficile da smontare. E si accompagna alla potenza sempre più svincolata dai limiti nazionali delle grandi piattaforme private che governano la grande parte delle comunicazioni attuali su internet. La rivolta può funzionare ma la rivoluzione ha bisogno di molta elaborazione in più per trasformarsi in un’innovazione di regime sostenibile. Probabilmente non ci si dovrebbe aspettare una rivoluzione se non si vede uno sviluppo culturale diffuso e profondo nella popolazione interessata.

L’elaborazione illuminista, nel XVIII secolo, ha preceduto e conferito una forza straordinaria alla Rivoluzione Francese. Oggi esiste un’elaborazione metodologica sulla democrazia del XXI secolo messa in questione dall’emergere delle tecnocrazie pubbliche e private, dall’inquinamento informativo diffuso dalla disinformazione e dal trollismo, dalla tecnica dell’emotività mediatica che non è difficile da imparare e continua a raggiungere i suoi effetti contraddittori dovunque. Ma questa elaborazione metodologica può accelerare se si incarna in piattaforme che sviluppano l’abitudine a riconoscere il valore delle forme di informazione e discussione rispettose delle relazioni civiche: una forma di cooperazione emergente che appare più vicina all’evoluzione simbiotica che all’evoluzione conflittuale. La non violenza è una rivoluzione culturale profonda, pragmatica: le piattaforme di collaborazione civica ne possono essere uno strumento. E trasformare radicalmente anche l’immagine di rivoluzione: non necessariamente più un cambiamento distruttivo, ma piuttosto un passaggio a una nuova forma di costruttività critica e innovativa che travolge i privilegi e riqualifica la ricerca culturale: la nuova epoca della conoscenza ha bisogno anche di una “rivoluzione della conoscenza”.