Category media

Obama soccorre i sostenitori della net neutrality!

Lo aveva detto in tempi non sospetti. Il presidente Barack Obama capisce la net neutrality e la sostiene con forza. Ma dopo mesi di campagna per la prioritizzazione della rete condotta col supporto del capo della FCC – che è stato nominato da Obama – il dubbio di incoerenza cominciava a circolare. Ma il presidente ha parlato di nuovo forte e chiaro (Slate):

President Obama reaffirmed his “unequivocal support” for network neutrality. Network neutrality is the principle that phone and cable companies shouldn’t create an unequal Web—one with new Internet “slow lanes” for (almost all) websites and special fast lanes sold to billion-dollar giants like Facebook and Apple.

È un conforto per i 3,7 milioni di americani intervenuti nella consultazione lanciata dalla FCC. Per tutti gli internettiani. Per la libertà di innovazione. E anche per la Commissione per i diritti in internet della Camera italiana che ha sempre pensato alla neutralità della rete come un diritto umano.

Le lobby anti-neutrali – vagamente telco-centriche – avevano conquistato posizioni anche in Europa ai tempi della Kroes e della sua idea di mercato unico delle telecomunicazioni. La loro vittoria non è ineluttabile. Ma non è finita: e non si deve cedere un passo.

Vedi anche:
Power law e net neutrality
Neutralità della rete: perché è importante
Tim Berners-Lee e la neutralità
.

Promemoria. Lessig, la costituzione di internet e la regolamentazione

Come si è ricordato anche in passato, Lawrence Lessig, avvocato di cultura repubblicana, con una straordinaria storia di lotta per la libertà dell’accesso alla conoscenza, realizzata anche attraverso innovazioni fondamentali come la licenza creative commons ha scritto pagine da ricordare per il dibattito che si sta sviluppando intorno all’Internet Bill of Rights. Il suo contributo ha consentito di scoprire che la regolamentazione essenziale di internet è scritta nel codice e nell’architettura della rete. Nella riflessione sui diritti e la rete, l’alternativa esatta non è tra “regolamentare e non regolamentare”, ma tra “regolamentare a base di software e regolamentare a base di leggi”. E’ perfettamente chiaro che la politica delle leggine su internet è un pericolo per lo sviluppo della rete. Come peraltro è perfettamente chiaro – o lo sta diventando – che la politica delle grandi piattaforme extraterritoriali è una forma di regolamentazione di default per internet, solo in parte trascritta nei “terms and conditions”, molto più sottilmente implicita nel design e nelle strutture delle piattaforme: queste possono decidere quanto dare di privacy, quanto dare di interoperabilità, quanto dare di libertà di espressione.

IL punto di tutta la questione dell’Interet Bill of Rights non è dunque altro che l’emergere di un’esigenza “costituzionale”. Chi regola internet va regolamentato per salvaguardare l’equilibrio dei poteri: non può prevalere la logica delle lobby che governano la politica, come non può prevalere la logica del profitto privato extraterritoriale che governa le grandi piattaforme. Per questo serve una sorta di costituzione scritta in nome dei diritti umani, consapevole delle dinamiche specifiche dell’ecosistema internettiano. Lo sforzo compiuto dalla Commissione della Camera va in questa direzione. E non a caso è ispirato, come un po’ tutto questo movimento, dalla ricerca ventennale di Stefano Rodotà. Il suo risultato potrà essere migliorato con una consultazione e con il confronto internazionale che è già partito.

Ma il senso di questo post è semplicemente quello di ricordare che non si sta parlando di regolamentare internet: si sta parlando di regolamentare chi vuole regolamentare internet.

Ed ecco, a titolo di promemoria, quello che diceva Lessig.

Fin dai primi tempi del successo commerciale del web Lessig aveva maturato una intuizione. Con il libro “Code and other laws of cyberspace” e l’articolo per Harvard Magazine “Code is law” del gennaio 2000 – scritti al culmine della irrazionale euforia per la bolla delle dot-com – ha contribuito ad aprire una strada. Dice Lessig che in ogni epoca c’è un potere che minaccia la libertà e ci sono regole che la salvaguardano. La Costituzione è un insieme di regole pensato per impedire al potere federale di abolire la libertà degli americani. Il welfare è stato un insieme i misure per impedire al capitalismo di distruggere la libertà dei cittadini di vivere una vita decente. «La nostra è l’epoca del cyberspazio. E anche in quest’epoca c’è un potere che minaccia la libertà». Non è il governo. «Quel potere oggi è il codice: il software e lo hardware che danno al cyberspazio la forma che ha. Questo codice, o architettura, fissa le regole della vita nel cyberspazio. Determina quanto è facile proteggere la privacy, o quanto è facile la censura. Determina se l’accesso all’informazione è generalizzato o recintato. Influenza chi vede che cosa, o che cosa è monitorato». È un potere che non si vede se non lo si conosce.

A dimostrazione della sua straordinaria capacità visionaria, Lessig in tempi del tutto non sospetti, aggiungeva: «Il codice del cyberspazio sta cambiando. E questo cambiamento trasformerà il cyberspazio. Il cyberspazio era un posto che proteggeva l’anonimato, la libertà di espressione, il controllo individuale; diventerà un posto nel quale l’anonimato sarà più difficile, l’espressione meno libera, il controllo individuale confinato solo ai pochi superesperti». Quale sarebbe stato il percorso per questo cambiamento? E chi ne sarebbe stato protagonista? Per Lessig al fondamento della rete internet c’è un codice originario che ha conseguenze molto precise. «Internet originariamente è basata su un codice che implementa protocolli chiamati TCP/IP. Questi protocolli abilitano lo scambio di dati tra reti interconnesse. Questo scambio avviene senza che le reti conoscano il contenuto dei dati, senza conoscere chi invia i dati. Questo codice è neutrale in relazione ai dati, ignorante in relazione all’utente». Come conseguenza, in questa architettura, la singola persona è difficilmente tracciabile e lo scambio di dati è difficile da controllare: significa che per i governi è complicato regolamentare internet. Chiaramente questa difficoltà favorisce la libertà di espressione ma anche l’attività illegale: in un contesto autoritario ha la positiva conseguenza di difendere chi informa sui fatti; in un contesto criminale ha la conseguenza negativa di difendere chi commette illeciti. Lessig si chiede: che cosa ci possiamo fare? «Molti pensano che non ci si possa fare niente. Internet è così e non si tocca». È un approccio molto diffuso. Ma sempre più insostenibile. E non per motivi legali: per motivi che fanno parte integrante della stessa architettura della rete: «Ma nessun pensiero è più pericoloso per il futuro della libertà nel cyberspazio di questa fede nella libertà garantita dal sofware. Perché il codice non è fisso. L’architettura del cyberspazio non è un dato immodificabile. Altre architetture possono essere costruite sopra i protocolli internet di base. E queste nuove architetture possono rendere internet diversa e regolamentata in un modo diverso. Il commercio sta costruendo queste nuove archietture. Il governo sta aiutando. Insieme possono cambiare il carattere dell’internet. Possono farlo e lo stanno facendo». Se l’unica difesa della libertà è nel codice, dice Lessig, bisogna fare attenzione: perché il codice può essere cambiato. E quindi qualcuno lo sta cambiando. Generando forme di regolamentazione che non sono necessariamente desiderabili. E che comunque richiedono un pensiero.

Pubblicato nel 2000, questo articolo sembra scritto da chi ha visto il film dello sviluppo di internet negli anni successivi. Le piattaforme commerciali si sono sovrapposte a internet e hanno conquistato miliardi di utenti che non godono di alcun anonimato e i cui messaggi sono perfettamente controllabili. I governi hanno imparato a separare le reti nazionali da quella internazionale e le loro agenzie sono riuscite – come la Nsa – a raccogliere ogni genere di informazione su chi usa internet e su ciò che fa e scrive usando la rete. Le piattaforme e gli interventi governativi hanno completamente rovesciato la condizione di libertà che appariva il fondamento del protocollo TCP/IP per i cittadini che accettano di usare le piattaforme e che non sono capaci di aggirare le limitazioni e gli interventi delle autorità di governo. E in questo contesto, per i cittadini normali che usano le piattaforme e non si sanno o non si vogliono difendere dalle intrusioni del governo, la quantità di informazioni che può essere collegata alla loro identità e persona è enormemente superiore a quello che avveniva in contesti architetturali precedenti a internet. I cookies e le altre forme di raccolta di informazioni consentono di conoscere l’identità della persona, tutti i suoi dati anagrafici, tutte le sue attività, le sue preferenze anche le più intime, in base proprio a quello che le persone fanno volontariamente online, analizzando le attività e le interazioni con ogni genere di contenuto che si può pubblicare o ricevere in rete e con ogni tipo di relazione sociale che si può coltivare sulle piattaforme.

Il punto di Lessig è che quanto viene difesa la privacy o quanto viene infranta dipende dal codice. Chi scrive il codice scrive la regola. Può essere incentivato a scriverlo in un modo o in un altro dal mercato o dalla legge, ma sarà chi scrive il codice a decidere. Quello che conta, dunque, dice Lessig, sono i valori di chi scrive il software. E i loro valori diventeranno i valori che contano per le regole seguite da chi usa il software. I cavalieri dei bit agiranno in base a un codice d’onore o cederanno alla tentazione? «E noi dovremmo avere un ruolo nella scelta del codice, visto che questo codice influirà sui nostri valori?». Certo, si risponderà: dobbiamo avere un modo per influenzare le regole che il codice impone ai comportamenti delle persone. Ma chi e come decide? Molti pensano che si debbano lasciare andare le cose senza interventi governativi. Altri pensano a una pletora di decisioni che possono essere prese per intervenire punto per punto sui problemi emergenti. Probabilmente sono entrambe posizioni sbagliate. «La scelta non è tra regolamentazione o non regolamentazione. Il codice è una regola. Implementa dei valori. Abilita la libertà o la disabilita. Protegge la privacy o promuove la sorveglianza. Ci sono persone che operano delle scelte su tutte queste cose. Persone che scrivono il codice. Quindi la scelta non è “se regolamentare” ma se la comunità avrà un ruolo nelle scelte operate da chi scrive il codice».

Il riflesso condizionato che conduce a pensare che sia meglio che il governo resti fuori dalla regolamentazione di internet è un riflesso che nasce da un’ideologia diffusa secondo la quale il mercato o la tecnologia si autoregolamentano nel migliore dei modi possibile. Ma chi può dire che sia vero alla prova dei fatti? Il problema non è quello di limitare la libertà del mercato o della tecnologia. Ma di conoscere le conseguenze delle decisioni regolatorie delle aziende che scrivono il software. E cercare di mettere insieme un sistema che – come una costituzione – cerchi di mantenere un equilibrio tra gli interessi. Non c’è una soluzione preconfezionata chiara e semplice. Ma un approccio costituzionale è un modo per trovarla: Lessig suggerisce un sistema di equilibri in modo che la libertà di mercato sia salvaguardata e allo stesso tempo sia bilanciata dai valori definiti dalla comunità.

Una quantità di lavori di ricerca, di attività politiche, di discussioni tecniche si sono succedute a commentare l’evoluzione di internet e delle sue conseguenze sui valori e le regole che governano la società. Secondo Lessig non si può non tener conto di un nuovo soggetto “politico” fondamentale nell’epoca di internet: il potere dei programmatori e la forza regolamentatoria delle piattaforme che la programmazione sviluppa. Sono persone. Hanno interessi. Hanno valori. E sono manipolabili. Oppure possono manipolare. Il corollario è che che non esiste una deregolamentazione in questo settore, ma solo una scelta su chi sia chiamato a regolamentare. Forse non basta per risolvere il problema. Ma di certo lo pone in modo adeguato alla sfida posta da internet alla società umana.

Digitale europeo, neutralità e investimenti nella rete

Neelie Kroes ha lavorato con energia per il digitale in Europa. Il suo ultimo discorso è forte e accorato, non necessariamente del tutto coerente, come sul tema della net neutrality. Vedremo chi verrà dopo di lei che cosa farà. Il primo argomento in discussione è il mercato unico delle telecomunicazioni che è solo una parte del tema digitale.

La Commissione e i ministri delle telecomunicazioni sembrano intenzionati a portarlo avanti. Contiene una serie di obiettivi importantissimi, orientati a sostenere gli investimenti delle compagnie di telecomunicazioni, facilitazioni per i consumatori intorno ai temi del roaming, e alcune nuove regole. Molta parte del dibattito si concentra sulla revisione della net neutrality. Le telco sostengono che per investire hanno bisogno di entrate. E ritengono di potersele aggiudicare facendo pagare le piattaforme internet che vogliono un servizio prioritizzato. Una logica c’è: lo streaming video occupa un sacco di banda e riduce lo spazio per il resto. Deve pagare di più. Ma la logica finisce nel momento in cui questo diventa la richiesta di far pagare tutte le piattaforme che vogliono prioritizzazione, anche quelle che non richiedono particolare consumo di banda. Sarebbe la fine della net neutrality: se chi vuole avere un servizio prioritizzato può pagare e ottenerlo, chi non può pagare perché sta ancora sviluppando il suo modello di business è chiaramente penalizzato. Finisce che chi è già grande limita la crescita di chi è appena nato, anche se ha una grande e importante innovazione. Kroes per rispondere ha sostenuto che questa prioritizzazione non deve degradare troppo l’internet pubblica aperta e neutrale. Ma non ci sono modi per definire questa norma. Se le grandi società potessero si concentrerebbero sul fare tutto ciò che produce più entrate immediate anche a discapito di quelle eventuali future, come è probabile che accada se potranno decidere quanto “degradare” l’internet pubblica e quanto investimento dedicare all’internet prioritizzata: sarebbe una situazione molto difficile per la difesa dell’internet pubblica neutrale aperta all’innovazione imprevista di startup e nuove imprese. Che sono invece proprio quelle che producono occupazione e crescita.

Sarà meglio pensare prima alla rete pubblica e neutrale, difenderla e accrescerla: è lì che c’è occupazione, crescita, innovazione, miglioramento della qualità della vita, opportunità culturale. Se le piattaforme che occupano tanto spazio di banda vogliono una rete prioritizzata e le telco pensano di poter ripagare gli investimenti che comporta, potrebbero pensare a una loro rete che non si chiamerebbe internet perché non sarebbe neutrale, e dovrebbero investire insieme alle telco per crearla, separata chiaramente dall’internet. Internet a sua volta deve crescere come spazio pubblico della conoscenza, neutrale e libero: il luogo dove chi innnova non deve chiedere il permesso ai grandi. La net neutrality è – anche – una antitrust preventiva che garantisce la libertà per gli innovatori di fare concorrenza ai grandi incumbent. Imho.

L’America non è neutrale. Ma discute a fondo

La neutralità della rete è diventata un argomento di discussione importante in America, anche perché le nuove regole proposte dalla FCC la aboliscono e il numero delle persone che hanno scritto qualcosa per la consultazione in materia ha taggiunto i 3,7 milioni. Segno che almeno là non è considerato un tema tecnico ma di civiltà.

Un passo avanti è stato segnato con l’apertura del dibattito sull’eliminazione della diversa interpretazione della net neutrality su internet mobile e fissa. Anche il mobile deve aprirsi.

Si legge su Wsj, sito a pagamento: “Federal Communications Commission Chairman Tom Wheeler last week raised the possibility that the agency would subject broadband mobile to proposed “open Internet” rules.”

Intanto pare si sviluppi un compromesso generale sulla prioritizzazione. Non sarebbe più una corsia preferenziale per i servizi che pagano di più gli operatori, ma una scelta degli abbonati che pagherebbero di più per certi servizi purché prioritizzati sulla loro connessione (WaPost).

Ci si domanda se questa strada apparentemente più giusta non condurrebbe chi offre i servizi a pagare i consumatori perché comprino la prioritizzazione. Ma a occhio non sembra tanto intelligente. Commenti benvenuti.

Vedi anche
L’opinione della folla sulla net neutrality
Concentrazione e net neutrality
Net neutrality. Perché è importante

Google sa di me quello che io non sapevo

Imitando The Verge si può andare a vedere che cosa sa Google di noi. La famosa questione di quanto il motore di ricerca riesca a individuare gli interessi dei navigatori per proporre pubblicità mirata resta un tema interessante. Ma a quanto pare non ci prende molto. Lo diceva anche Maciej Cegłowski commentato tra gli altri da Ethan Zuckerman sull’Atlantic qualche tempo fa in un pezzo da leggere.

Ebbene, questi sarebbero i miei interessi:
Arts & Entertainment
Baked Goods
Beverages
Bicycles & Accessories
Books & Literature
Celebrities & Entertainment News
Coffee & Tea
Computer & Video Games
Cooking & Recipes
Crime & Justice
Cuisines
Dance & Electronic Music
East Asian Cuisine
Fast Food
Finance
Fitness
Food
Food & Drink
Humor
Hunting & Shooting
Mobile Phones
Movies
Music & Audio
Online Video
Pets & Animals
Pop Music
Rap & Hip-Hop
Restaurants
Search Engine Optimization & Marketing
Service Providers
Shooter Games
Social Networks
TV & Video
TV Comedies
TV Shows & Programs

Quello che colpisce non è tanto la minoranza di argomenti che mi interessano in questa lista. Direi che Google ci ha preso abbastanza nel 22% dei casi. Invece, devo ammettere che stupisce di più il fatto che abbia incluso argomenti che non mi interessano per niente e tanto meno in termini di pubblicità: il 57%.

In particolare non ho nessun interesse e anzi una certa repulsione per la caccia e i giochi sparatutto. L’unica cosa veramente esatta nella ricostruzione di Google è che leggo libri.

D’altra parte, per Google, Cegłowski è una donna mediorientale..!

Può essere consolante che tutto questo lavoro di sorveglianza dia risultati tanto sbagliati. D’altra parte Google mi chiede anche di aiutare a targettizzare meglio i miei interessi. Vabbè un’altra volta.

Il web è mobile

Audiweb dice che gli italiani passano un’ora e nove minuti connessi a internet dal computer e un’ora e 25 minuti connessi a internet dallo smartphone…

La net neutrality è politica. A New York. Grazie a Tim Wu

Tim Wu è accreditato per aver popolarizzato il termine net neutrality con il suo paper del 2003. E ora è candidato Lieutenant Governor di New York.

Approccio europeo alla valutazione delle università

Invece di fare una classifica delle università, u-Multirank raccoglie tutti i dati che possono servire a valutare gli atenei e poi consente agli utenti di confrontarne la performance in base a quello che per loro è più importante. Non emergono classifiche ma confronti. Non si nascondono i dati e i criteri valutativi dietro la comunicazione dei risultati di una competizione, le cui regole sono decise dalle istituzioni che stilano le classifiche con un approccio piuttosto top-down, ma si danno alle persone gli strumenti per farsi un’idea propria del valore delle università. Chissà che cosa ne pensano gli esperti. Vista da qui, non pare una brutta idea. Ma aspettiamo e speriamo in qualche commento da esperti veri…

Un problema dimenticato del diritto all’oblio

È complicato. Il diritto all’oblio resta un principio in cerca di equilibrio. Come previsto (Guardian), la decisione della Corte Ue ha lasciato aperte troppe questioni e il problema della relazione tra diritto all’oblio e correttezza dell’informazione resta irrisolto.

Secondo indiscrezioni pubblicate da VentureBeat la situazione attuale non è soddisfacente per le autorità europee. In pratica, avendo lasciato le decisioni a Google e agli altri motori di ricerca la certezza del diritto non c’è. Inoltre, chi cerchi le notizie “delinkate” in Europa le trova sulle versioni extraeuropee di Google. Ma soprattutto in molti casi la rimozione dei link dal motore sembra aumentare l’attenzione intorno ai casi che si tenta di far dimenticare.

Il punto, probabilmente, è che la prima pagina restituita da Google quando si cerca una persona equivale a una sorta di immagine pubblica della persona stessa. Alla fine, forse, occorre cercare non di negare i fatti, ma di darli con maggiore completezza.

È possibile che i fatti negativi che sorprendono una persona – tipo le accuse di malversazioni – tendano a essere più linkati di quanto non avvenga alle eventuali soluzioni positive successive – tipo le assoluzioni. L’equilibrio dell’immagine pubblica della persona ne risente, ovviamente.

La soluzione è ancora lontana. Google dà conto soprattutto delle pagine più linkate, ma forse per le persone potrebbe tentare di modificare i risultati delle ricerche per renderle più equilibrate e diversificate. L’algoritmo viene costantemente modificato: potrebbe forse essere mutato anche per questo scopo.

È possibile la neutralità delle piattaforme?

Uno studio del Conseil National du Numerique analizza la possibilità di introdurre il concetto della neutralità nell’ambito delle piattaforme, come Apple, YouTube, Facebook e così via. Altri potrebbero chiedere una interoperabilità delle piattaforme, in modo che non siano mondi a parte. Ma nella neutralità, il Conseil vede qualcosa di più, in termini per esempio di accesso ai dati.

Le piattaforme hanno una posizione molto favorevole in un mercato a tre dimensioni:
1. offerta di servizi gratuiti agli utenti che in in cambio cedono dati su loro stessi
2. offerta di servizi per la pubblicità alle aziende che hanno messaggi pubblicitari da inviare agli utenti
3. offerta di una base di utenti ad aziende terze che producono software da vendere agli utenti stessi (le piattaforme trattengono una percentuale del business)

Nella prima dimensione, le piattaforme sembrano delle utility o produttori di software. Nella seconda sembrano editori. Nella terza sembrano negozi online. Se arrivano a conquistare una grande base di utenti con servizi di elevata utilità a prezzi bassi o nulli, giocando sull’esclusività tecnologica, le piattaforme si costruiscono posizioni dominanti nei mercati editoriali e commerciali. E poiché le tecnologie di rete hanno la tendenza a crescere geometricamente di valore con il numero di utenti (per la cosiddetta “legge di metcalfe”), questa posizione dominante diventa dirompente sui mercati adiacenti. Il punto di domanda in quel caso diventa: queste piattaforme vanno regolamentate? E se sì, devono essere regolamentate in base alla loro funzione di “utility”? Oppure devono sottostare a qualche forma di antitrust innovativo? Seguendo l’idea del Conseil si direbbe di sì: devono essere interoperabili, o addirittura neutrali.

Alexandre Bénétreau, Edri, che riassume il rapporto del Conseil, aggiunge peraltro una critica, individuando una sorta di contraddizione francese:

The approach of the French government has its own hypocritical storytelling. The Council of the European Union (EU member state governments) is currently negotiating on the “telecoms single market regulation”, which includes provisions on net neutrality. The French government is taking the position that net neutrality and platform neutrality should be regulated at the same time. The most likely outcome of this approach is to kill the possibility of the EU regulating in favour of net neutrality. If the French government is successful, there will be little or no possibility of the European Commission legislating on either net- or platform neutrality in the foreseeable future.

Probabilmente l’obiettivo dell’interoperabilità è il più coerente per cominciare a porre il tema e a sviluppare una cultura in materia. Si tratta per esempio di aprire alla concorrenza tra “negozi” diversi il sistema di vendita di servizi e applicazioni che è stato sviluppato sulle piattaforme (cloud, device, software). In ogni caso, sarebbe meglio evitare che un concetto di neutralità applicato alle piattaforme renda meno comprensibile la necessità di mantenere neutrale la “piattaforma delle piattaforme”: cioè internet. L’interoperabilità potrebbe essere sufficiente, almeno per cominciare, perché imporrebbe alle piattaforme dominanti di aprire ponti verso le piattaforme emergenti o concorrenti.

Alla base, la neutralità della rete è necessaria per consentire alle piattaforme nascenti di proporre la loro innovazione senza chiedere il permesso agli operatori dell’accesso a internet. Quando sono cresciute un po’, avrebbero bisogno dell’interoperabilità con le piattaforme esistenti e già affermate per potere offrire i loro servizi agli utenti. Neutralità della rete e interoperabilità delle piattaforme, in questo senso, si saldano in una visione aperta di internet.

Vedi anche:
Dibattito editori, autori, Amazon
Anche qui

Drôle de guerre: Hachette, Amazon and authors. Something needs to be fixed, but looking ahead

A commercial dispute between Amazon and Hachette has led quite a few authors to take a stand. On which side? Well, they surely are against Amazon. But are they also with Hachette?

Authors United sent a letter to their readers through an advertisment. They claim Amazon has boycotted Hachette and made the works of some authors more difficult to find at the right price. Amazon answered by accusing Hachette to impose the wrong price on their books (adding a little gaffe about Orwell). Hachette just said that they want to go on negotiating. John Kay suggests that the real problem is in publisher’s strategy.

It’s been a sort of “drôle de guerre” until now. But the future is not going to be nice for some of the players. Amazon is winning on the technology side and there is little that Hachette and other publishers have been doing to prevent their complete defeat. Authors are asking Amazon – rightly – for fair competitive tactics. But in the long run, this is not enough. If they like publishers they should be asking them to improve their vision and strategy.

Publishers buy authors’ copyright in exchange of some services they still give, such as financing, marketing and editing, but they can pay for it only if the also make a great delivering. As a matter of fact, marketing and editing can be done by someone else, maybe financing too, delivering is done more and more by Amazon. Publishers’ problem is not about negotiating: it is about creating a real strategy.

Where to look? Where is Amazon going to find problems?

Amazon is a scalable platform that has the ability to lower the price for delivering content – and many other things – to the consumer. The more customers they have the more margins they do in an exponential manner. What prevents them to make huge and stable profits now is their choice and will: it is because they are investing tons of dollars in innovation and in acquiring customers. In the long run they will have a base they think is right and start getting more and more profitable. The problem with that is that they also want to lock-in customers. Their platform is not interoperable with any other platform. This is because in their technical world they want control. And this fundamentally changes the idea of Amazon as the place where you find anything you need to find at a very good price.

Amazon is competing against publishers, and winning. But it is also competing against other platforms: such as Apple and Google. In the book world they win because customers feel that Amazons has the best choice of books – and a very good device to read them. If Amazons starts not to sell everything, if it excludes some publishers or authors, it will be chaos: people will have to have a device for every platform to get to every author. So they need to fight publishers without helping Apple and Google.

There is a technical flaw in Amazons’ stategy. If the net is neutral somewhere can be created a new platform that starts from skratch with the idea that it will allow to deliver, pay and read any book that is published by any author. A new interoperable platform that levels the field for competition between authors, publishers and device makers can be a prospect: if someone starts to invest in it before Amazon has completely won.

Authors could ask publishers to invest in this platform, now. Or they could start thinking about a new platform that will help all professionals to find they business model: editors, markerters, financers, stylists, authors and every other profession can gather in a new book project, make a deal about how to divide revenues and deliver the work. It is not impossible.

What’s impossible is to win by just complaining.

Benigni, Siae, copyright. Guardiamoci un bel film

Nella piccola vicenda italiana del contributo per la copia privata sono riusciti a trascinare diversi autori amati dal pubblico. Evidentemente senza perdere tempo a spiegare bene loro di che cosa stavano parlando. È un’impressione che, soggettivamente, mi pare avvalorata dal comunicato stampa alla fine del post precedente.

Ma è ancora più chiara con la comunicazione di Benigni e Bertolucci di ieri, all’Ansa. Dicono che l’equo compenso sulla copia privata «non è una tassa ma un giusto corrispettivo per chi produce creatività in questo Paese cercando e sperando di aiutarlo a migliorare». La parola chiave è “giusto”. Che sia legale è vero, visto che c’è una legge, ma questo non consente di definirlo “giusto” considerando che lo devono pagare tutti anche se non si fanno nessuna copia privata di niente.

E qui c’è il salto logico più interessante. Quando i due registi si dimostrano che convinti che il contributo dovrebbe essere pagato dalle aziende che producono smartphone e altri device: «Le aziende che scaricano sui consumatori un loro obbligo compiono un atto ingiustificato a difesa degli interessi finanziari di coloro che molto prendono e pochissimo restituiscono alla nostra cultura». Non si capisce proprio da dove nasca questa convinzione secondo la quale il contributo dovrebbe essere pagato dai produttori e non dai consumatori considerato che la Siae afferma chiaramente che si tratta di un contributo vantaggioso per i consumatori: «La Copia Privata è il compenso che si applica, tramite una royalty sui supporti vergini fonografici o audiovisivi in cambio della possibilità di effettuare registrazioni di opere protette dal diritto d’autore. In questo modo ognuno può effettuare una copia con grande risparmio rispetto all’acquisto di un altro originale». Da notare quel “si applica … in cambio della possibilità di effettuare registrazioni”: chi le effettua se non il consumatore? E dunque con chi è lo scambio? E dunque chi lo deve pagare il contributo? Evidentemente il consumatore (ho appena riguardato il sito Siae ed è ancora uguale a come l’ho citato; non so se cambierà in futuro).

Questa battaglia è sulla logica. Non sulla sostanza. Perché la sostanza è che il diritto d’autore merita una ricompensa. Ma merita una ricompensa giusta e pagata da chi effettivamente fa uso del diritto d’autore non da chi si compra un telefono per fare le mille altre cose che consente. E tanto meno, parrebbe, da chi vende quel telefono. Ci vuole altro per compensare giustamente gli autori e per punire i produttori della loro tendenza a eludere le tasse.

Ma questa è una piccola questione. Come si sa, chi parla di copia privata non deve alludere in nessun caso al fatto questo contributo potrebbe essere pensato come una compensazione per la pirateria come impone la Corte europea. Eppure, esplicitamente o implicitamente, in nome della salvaguardia dei diritti degli editori (e forse degli autori) si stanno commettendo errori e si stanno sostenendo opinioni illogiche e ingiuste.

Benigni e Bertolucci si sono prestati a fare da soldati in una piccola guerra. Ma forse potrebbero dare un’occhiata alla grande immagine di ciò che sta accadendo. E guardarsi un film. Bellissimo:

Il codice è codice, la legge è software: la cultura digitale è un diritto

Questo post è un po’ lungo…

L’approccio

Lawrence Lessig ha avuto l’intuizione fondamentale. Con il libro “Code and other laws of cyberspace” e l’articolo per Harvard Magazine “Code is law” del gennaio 2000 – scritti al culmine della irrazionale euforia per la bolla delle dot-com – ha contribuito ad aprire una strada:

lessig-column

“Every age has its potential regulator, its threat to liberty. Our founders feared a newly empowered federal government; the Constitution is written against that fear. John Stuart Mill worried about the regulation by social norms in nineteenth-century England; his book On Liberty is written against that regulation. Many of the progressives in the twentieth century worried about the injustices of the market. The reforms of the market, and the safety nets that surround it, were erected in response.

Ours is the age of cyberspace. It, too, has a regulator. This regulator, too, threatens liberty. But so obsessed are we with the idea that liberty means “freedom from government” that we don’t even see the regulation in this new space. We therefore don’t see the threat to liberty that this regulation presents.

This regulator is code—the software and hardware that make cyberspace as it is. This code, or architecture, sets the terms on which life in cyberspace is experienced. It determines how easy it is to protect privacy, or how easy it is to censor speech. It determines whether access to information is general or whether information is zoned. It affects who sees what, or what is monitored. In a host of ways that one cannot begin to see unless one begins to understand the nature of this code, the code of cyberspace regulates.”

E aggiungeva, a dimostrazione della sua straordinaria capacità visionaria:

“This regulation is changing. The code of cyberspace is changing. And as this code changes, the character of cyberspace will change as well. Cyberspace will change from a place that protects anonymity, free speech, and individual control, to a place that makes anonymity harder, speech less free, and individual control the province of individual experts only.”

Quale sarebbe stato il percorso per questo cambiamento? E chi ne sarebbe stato protagonista? Per Lessig al fondamento della rete internet c’è un codice originario che ha conseguenze molto precise. “The basic code of the Internet implements a set of protocols called TCP/IP. These protocols enable the exchange of data among interconnected networks. This exchange occurs without the networks knowing the content of the data, or without any true idea of who in real life the sender of a given bit of data is. This code is neutral about the data, and ignorant about the user”. La conseguenza è che in questa architettura è che la singola persona è difficilmente tracciabile e che lo scambio di dati è difficile da controllare il che significa che per i governi è complicato regolamentare internet. Chiaramente questa difficoltà favorisce la libertà di espressione ma anche l’attività illegale: in un contesto autoritario ha la positiva conseguenza di difendere chi informa sui fatti; in un contesto criminale ha la conseguenza negativa di difendere per esempio la pedofilia, la diffusione di materiali filonazisti e altro. Lessig si chiede: che cosa ci possiamo fare? “There are many who think that nothing can be done: that the unregulability of the Internet is fixed; that there is nothing we can do to change it; that it will, so long as it is the Internet, remain unregulable space. That its ‘nature’ makes it so”. E’ un approccio molto diffuso. Ma sempre più insostenibile. E non per motivi legali: per motivi che fanno parte integrante della stessa architettura della rete: “But no thought is more dangerous to the future of liberty in cyberspace than this faith in freedom guaranteed by the code. For the code is not fixed. The architecture of cyberspace is not given. Unregulability is a function of code, but the code can change. Other architectures can be layered onto the basic TCP/IP protocols, and these other architectures can make behavior on the Net fundamentally regulable. Commerce is building these other architectures; the government can help; the two together can transform the character of the Net. They can and they are”. Se l’unica difesa della libertà è nel codice, dice Lessig, bisogna fare attenzione: perché il codice può essere cambiato. E quindi qualcuno lo sta cambiando. Generando forme di regolamentazione che non sono necessariamente desiderabili. E che comunque richiedono un pensiero.

Pubblicato nel 2000, questo articolo sembra scritto da chi ha visto il film dello sviluppo di internet negli anni successivi. Le piattaforme commerciali si sono sovrapposte a internet e hanno conquistato miliardi di utenti che non godono di alcun anonimato e i cui messaggi sono perfettamente controllabili. I governi hanno imparato a separare le reti nazionali da quella internazionale e le loro agenzie sono riuscite – come la Nsa – a raccogliere ogni genere di informazioni su chi usa internet e su ciò che fa e scrive usando la rete. Le piattaforme e gli interventi governativi hanno completamente rovesciato la condizione di libertà che appariva il fondamento del protocollo TCP/IP per i cittadini che accettano di usare le piattaforme e che non sono capaci di aggirare le limitazioni e gli interventi delle autorità di governo. E in questo contesto, per i cittadini normali che usano le piattaforme e non si sanno o non si vogliono difendere dalle intrusioni del governo, la quantità di informazioni che può essere collegata alla loro identità e persona è enormemente superiore a quello che avveniva in contesti architetturali precedenti a internet. I cookies e le altre forme di raccolta di informazioni consentono di conoscere l’identità della persona, tutti i suoi dati anagrafici, tutte le sue attività, le sue preferenze anche le più intime, in base proprio a quello che le persone fanno volontariamente online, analizzando le attività e le interazioni con ogni genere di contenuto che si può pubblicare o ricevere in rete e con ogni tipo di relazione sociale che si può coltivare sulle piattaforme.

Il punto di Lessig è che quanto viene difesa la privacy o quanto viene infranta dipende dal codice. Chi scrive il codice scrive la regola. Può essere incentivato a scriverlo in un modo o in un altro dal mercato o dalla legge, ma sarà chi scrive il codice a decidere. Quello che conta, dunque, dice Lessig, sono i valori di chi scrive il software. E i loro valori diventeranno i valori che contano per le regole seguite da chi usa il software. “So should we have a role in choosing this code, if this code will choose our values? Should we care about how values emerge here?”. Certo, si risponderà: dobbiamo avere un modo per influenzare le regole che il codice impone ai comportamenti delle persone. Ma chi e come decide? Molti pensano che si debbano lasciare andare le cose senza interventi governativi. Altri pensano a una pletora di decisioni che possono essere prese per intervenire punto per punto sui problemi emergenti. Probabilmente sono entrambe posizioni sbagliate. Perché chi decide c’è sicuramente.

“Our choice is not between “regulation” and “no regulation.” The code regulates. It implements values, or not. It enables freedoms, or disables them. It protects privacy, or promotes monitoring. People choose how the code does these things. People write the code. Thus the choice is not whether people will decide how cyberspace regulates. People—coders—will. The only choice is whether we collectively will have a role in their choice—and thus in determining how these values regulate—or whether collectively we will allow the coders to select our values for us”.

Il riflesso condizionato che conduce a pensare che sia meglio che il governo resti fuori dalla regolamentazione di internet è un riflesso che nasce da un’ideologia diffusa secondo la quale il mercato o la tecnologia si autoregolamentano nel migliore dei modi possibile. Ma chi può dire che sia vero alla prova dei fatti? “For here’s the obvious point: when government steps aside, it’s not as if nothing takes its place. It’s not as if private interests have no interests; as if private interests don’t have ends that they will then pursue. To push the antigovernment button is not to teleport us to Eden. When the interests of government are gone, other interests take their place. Do we know what those interests are? And are we so certain they are anything better?”.

Il problema non è quello di limitare la libertà del mercato o della tecnologia. Ma di conoscere le conseguenze delle decisioni regolatorie. E cercare di mettere insieme un sistema che – come una costituzione – cerchi di mantenere un equilibrio tra gli interessi. Non c’è una soluzione preconfezionata chiara e semplice. Ma un approccio costituzionale è un modo per trovarla: “Our first response should be hesitation. It is proper to let the market develop first. But as the Constitution checks and limits what Congress does, so too should constitutional values check and limit what a market does. We should test both the laws of Congress and the product of a market against these values. We should interrogate the architecture of cyberspace as we interrogate the code of Congress”.

Una quantità di lavori di ricerca, di attività politiche, di discussioni tecniche si sono succedute a commentare l’evoluzione di internet e delle sue conseguenze sui valori e le regole che governano la società. Secondo Lessig non si può non tener conto di un nuovo soggetto “politico” fondamentale nell’epoca di internet: il potere dei programmatori e la forza regolamentatoria delle piattaforme che la programmazione sviluppa. Sono persone. Hanno interessi. Hanno valori. E sono manipolabili. Oppure possono manipolare. Il corollario è che che non esiste una deregolamentazione in questo settore, ma solo una scelta su chi sia chiamato a regolamentare. Forse non basta per risolvere il problema. Ma di certo lo pone in modo adeguato alla sfida posta da internet alla società umana.

Tutto questo svela due ordini di realtà piuttosto importanti.

Chi ritiene che il mercato sia in grado di autoregolarsi e non debba subire l’interento del governo può avere se sue ragioni sul piano economico, ma queste si fermano di fronte alla scoperta che il codice ha conseguenze normative: le scelte dei programmatori possono essere influenzate dalle logiche del mercato ma non ne sono completamente governate. Perché esiste una dimensione indipendente nella quale valgono i valori dei programmatori, le logiche evolutive della tecnologia, la stessa capacità di interpretare le conseguenze della programmazione sui comportamenti degli utenti. Anzi, questa dimensione non è ininfluente sulla struttura del mercato: la forza normativa del codice software entra in gioco e contribuisce a regolare, implicitamente o esplicitamente, le stesse relazioni di mercato, limitandone alcune e favorendone altre.

Analogamente, chi ritiene invece che il governo debba intervenire per dare una voce democratica alla regolamentazione dei comportamenti umani nel mondo della rete dovrebbe tener conto a sua volta del fatto che il codice ha conseguenze normative. In una certa misura, si può dire che le leggi scritte sulla carta hanno conseguenze mediate dalla tecnologia. La tecnologia, si scopre, ha conseguenze normative autonome e in qualche caso indipendenti dalla lettera delle leggi. Un po’ come la qualità della burocrazia influisce sulla qualità dell’applicazione delle decisioni del governo, così la qualità del software influisce sulla qualità dell’applicazione delle norme decise dal governo. E così come la capacità della burocrazia di interpretare interessi e momenti storici è importante nell’applicazione delle decisioni politiche, allo stesso modo l’interpretazione normativa del codice è importante per comprendere quanto e come le norme politiche saranno davvero efficaci.

Di fronte a tutto questo, la storia ci dice che i governi democratici tendono a subire l’influenza delle lobby finanziarie e ad essere limitati nella loro azione da una conseguente ideologia economicista. Da questo punto di vista gli spazi di manovra per gli interventi regolamentari da parte dei governi sembrano essersi ridotti di fronte alla libertà d’azione della finanza e, grazie agli spazi così aperti nelle normative, le piattaforme tecnologiche di maggior successo si sono rese fondamentalmente autonome dagli stati: dal punto di vista fiscale e dal punto di vista normativo, quasi fossero repubbliche – o imperi – indipendenti.

Ma non è la fine della storia. Forse perché la storia non ha fine. La politica ritorna in mille modi a farsi sentire: nel confronto tra le potenze globali, tra le democrazie occidentali, il nazionalismo russo, la partitocrazia capitalistica cinese, le diverse interpretazioni politiche dell’islam e così via; nella gestione delle tensioni sociali che emergono durante la grande trasformazione che pervade le vecchie economie dominanti che lasciano spazio alle nuove economie emergenti; e nell’invenzione continua di innovazioni anche politiche che emergono dalle profondità dell’internet originaria, ancora generativa e relativamente libera.

La politica

Il codice è legge, l’algoritmo è regola, l’intefaccia è interpretazione. Questo è quanto abbiamo appreso dall’evoluzione del dibattito sul tema posto da Lessig.

Byung_Chul_HanAndrebbe letto il libro di Byung-Chul Han “La società della trasparenza”: il filosofo coreano che insegna a Berlino discute con straordinaria lucidità del mito della trasparenza e lo accosta all’ideologia della perfetta circolazione della moneta, alla concezione efficientista della tecnologia dell’informazione, alla società dell’apparire. Ne emerge una critica fortissima del mito secondo il quale la trasparenza è giusta, bella e vera di per sé. Un’argomentazione da discutere ma che lascia il segno. E andrebbero letti mille altri contributi, sulle conseguenze della rete, comprese quelle politiche. Come per esempio il libro di Antonio Floridia, “La democrazia deliberativa: teorie, processi e sistemi” (Carocci 2012), oppure Stefano Rodotà, “Il diritto di avere diritti” (Laterza 2012, segnalazione), o addirittura per chi abbia tempo in eccesso, il libro dell’autore di questo testo “Media civici” (Feltrinelli 2013). Ma la bibliografia è sterminata. Non è possibile ricostruire tutto in poche righe. Ma si può scegliere. A partire dalla premessa: Il codice è legge, l’algoritmo è regola, l’intefaccia è interpretazione.

In un contesto nel quale le regole fondamentali poste dalla legge del software sono strutturali, cioè vagamente simili a forme costituzionali, il primo passo è quello di individuare i modi con i quali la politica consapevole, se non addirittura democratica, riprende una libertà di manovra e una capacità di influenza sul modo con il quale la società prende decisioni che riguardano i fondamenti della convivenza.

In assenza di politica, la tecnologia pone le sue regole. E le regole dei media sociali influiscono sulla convivenza in un modo molto preciso. Facebook, la più diffusa piattaforma per il social networking, sceglie di condurre le persone che la usano a connettersi sulla base della regola del “mi piace”. Ogni volta che si dichiara che un post “mi piace” la selezione viene registrata e un algoritmo che funziona di default sulla piattaforma fa in modo che le prossime volte che si entra su Facebook le prime informazioni che si vedono sono quelle postate da persone alle quali in passato si è dato un “mi piace”. Poiché il tempo che si passa sulla piattaforma non è infinito, le prime informazioni sono probabilmente molto più viste di quelle che apparirebbero andando avanti nella lettura: alla lunga ci si connette prevalentemente con le persone alle quali si è fatto “mi piace”. Questo algoritmo è un filtro contro l’eccesso di informazione. Comodo, gradevole e con importanti conseguenze. Si formano secondo Eli Pariser (“The filter bubble”) delle bolle mentali e sociali all’interno delle quali le persone incontrano solo persone simili a loro, per curiosità, interessi, ideologie. E’ un modo divertente di socializzare e piuttosto gratificante perché come i “mi piace” si danno, in queste bolle è probabile che i “mi piace” si ricevano. Ma non è necessariamente un buon modo per prendere decisioni che abbiano una valenza politica per una popolazione.

In effetti, le decisioni politiche si prendono anche insieme a chi non piace. Anzi il problema è proprio questo: come costruire regole “costituzionali” che servano a decidere con gli altri cittadini che non hanno necessariamente le stesse opinioni ma secondo un metodo legittimato da tutti. E a questo proposito sta emergendo una nuova ondata innovativa per la generazione di piattaforme che abbiano questa funzione, fatte con un condice, delle regole e un’intefaccia che favoriscano comportamenti adatti a svolgere questa funzione.

Fino a che al di sotto delle piattaforme più utilizzate dalla popolazione connessa in rete esiste sempre una internet neutrale resta possibile l’emergere di nuove piattaforme governante da nuove regole. Nelle profondità della rete, programmatori e innovatori continuano a costruire forme diverse di interpretazione della realtà e dunque nuove opzioni di convivenza connessa. Comprese quelle che riguardano i modi con i quali le società prendono decisioni politiche. E i primi segni di questo lavoro stanno conquistando lentamente il loro posto in rete. Dopo i media sociali, potrebbe essere ora dell’avvento dei media civici.

Le soluzioni in proposito non mancano. Uno studio offerto al Senato della Repubblica Italiana dalla Fondazione Ahref ne ha fatto una sintesi in uno studio che si trova online: I media civici in ambito parlamentare. Liquid Feedback, IdeaScale, Civi.ci e molte altre piattaforme si stanno affacciando all’attenzione delle istituzioni che cercano modi per rigenerare la loro relazione con la popolazione e rivitalizzare la democrazia. La ricerca che li conduce è consapevole del fatto che il codice è legge, l’algoritmo è regola e l’interfaccia è interpretazione: il che significa che i comportamenti degli utenti sono influenzati – spesso profondamente – dalla forma delle piattaforme. La civicità di quei comportamenti è il risultato probabile del design di quelle piattaforme, oltre che di molte altre cose relative al contesto storico e geografico nel quale vengono applicate. L’adozione di quelle piattaforme da parte delle popolazioni nelle loro relazioni con le istituzioni non dipende certo solo dalla forma delle piattaforme, ma di certo le conseguenze di quell’eventuale adozione sono precise per quanto riguarda il comportamento delle persone e dunque la qualità delle decisioni che prendono.

I media civici tengono conto, implicitamente o esplicitamente, di regole che riguardano il modo con il quale le persone si informano, si scambiano opinioni, aggregano le opinioni in istanze operative, votano per mettere in ordine di priorità le loro istanze e confrontano le istanze con i vincoli posti dalla realtà per verificarne la compatibilità per ritornare a generare informazioni e riaprire eventualmente il ciclo. Si danno media civici usati da popolazioni o gruppi che intendono auto-organizzarsi e si danno media civici usati per riqualificare la relazione tra le popolazioni e le istituzioni o addirittura i partiti e le aziende.

Quello che importa sottolineare è che le regole dei media civici sono regole strutturali che influenzano le decisioni. Quindi se la tradizione costituzionale viene presa in conto si possono ispirare i programmatori a costruire piattaforme che per regola tendano a generare comportamenti equilibrati nello scambio di informazioni, nella proposta di opinioni, nelle discussioni per organizzare le istanze, nella qualità della relazione tra le priorità desiderate e le compatibilità storiche vincolanti. Un equilibrio che riguarda la salvaguardia delle minoranze, l’efficacia dei sistemi decisionali, la qualità della documentazione che serve alle informazioni, la condivisione sui vincoli che definiscono le compatibilità, e così via. Non esiste ancora una piattaforma che faccia tutto questo. Ma la strada è segnata e non è detto che sarà mai serviva da una sola piattaforma.

Ma un fatto è certo: queste nuove proposte emerse dalle profondità della rete e dalla sua qualità generativa non potrebbero innovare il panorama socio-politico se l’internet non fosse neutrale, come diceva Lessig, rispetto alle persone e alle idee che fa circolare. E senza regole politiche non esisterebbe alcuna motivazione per pensare che internet possa restare neutrale, o che tenda ad essere facilmente accessibile a tutti. Gli incentivi di mercato, le esigenze delle grandi corporation capitalistiche, o altre forme di influenza sull’evoluzione dei valori e delle decisioni dei programmatori che fanno le piattaforme potrebbero benissimo fare evolvere la rete verso una condizione di accesso non universale a una internet non neutrale. Come è già avvenuto per esempio per quanto riguarda la rete mobile, un enorme successo scaturito da innovazioni tecnologiche, da posizioni conquistate sul mercato, da regolamentazioni sulle aste delle frequenze pubbliche, ma non da un dibattito democratico intorno a questa questione: se gli operatori controllano quello che può e non può passare sulla rete, gli innovatori possono presentare le loro idee solo chiedendo il permesso. E questo limita enormemente l’innovazione. Compresa quella politica, che in un certo senso potrebbe avere conseguenze sul potere dei tecnici e degli operatori. In realtà, la generatività di un sistema dell’innovazione sta nell’equilibrio tra le tensioni legate alle logiche della politica, le evoluzioni legate alla dinamica del mercato e, da non dimenticare, le collaborazioni e le opportunità legate alle condizioni dei beni comuni, risorse che non rispondono né allo stato né al mercato essendo di tutti e ciascuno, manutenute in base a consuetudini e regole sociali e culturali come la vecchia internet neutrale.

rodotà_democrazia_tecnologiaNe viene fuori il dibattito sull’Internet Bill of Rights. Che alla Camera dei deputati italiana ha dato vita a una Commissione dedicata. Il tema è arrivare a una dichiarazione dei diritti, come appunto il secentesco Bill of Rights britannico, per indirizzare le successive normative che riguardano internet tenendo conto degli equilibri che vanno mantenuti per sviluppare il bene comune della conoscenza rappresentato dall’internet salvaguardando e valorizzando i diritti umani che le diverse interpretazioni della rete possono sviluppare oppure comprimere. Il Brasile ha approvato il Marco Civil. E l’Italia, nel semestre del suo speciale servizio all’Europa, si prepara a contribuire a un tema decisivo per la vita civile.

Gli argomenti in discussione sono: la neutralità della rete, privacy e libertà di espressione, accesso universale, apertura dei dati pubblici, sicurezza. Questa è politica nel senso della costruzione di una visione costituzionale che serva a indirizzare le decisioni operative che si prendono in rete, con la rete, per la rete. Ovviamente è solo un aspetto della politica. Ma è quello fondamentale. Le policy non ne sono una conseguenza, ma se tutto va bene, non emergono senza tener conto dei principi costituzionali. E altrettanto si potrebbe dire del software che sostanzia quelle policy.

Già, perché alla fine dei conti, il modo più efficiente di fare le leggi e di farle funzionare è immaginare che siano a loro volta costruite come software.

La policy

Ci avevano pensato in molti. Anche gli scrittori di fantascienza Vernor Vinge e Tom Maddox. La loro visione era quella di uno stato che scrive le leggi come software e le fa applicare come tecnologie. Avevano, in quel lontano 1996, una visione un po’ troppo ispirata al terrore del Grande Fratello, ritenendo che l’efficienza del governo sia sempre collegata alla tentazione di raggiungere un maggiore potere autoritario e non avendo ancora visto quanto le piattaforme private possono ottenere in assenza di interventi statali.

Oggi le premesse per allargare la relazione tra policy e software si sono create. E andrebbero colte, nel rispetto del potenziale Internet Bill of Rights, per ottenere alcune conseguenze piuttosto decisive:

1. più facile accesso alla conoscenza delle leggi
2. più facile innovazione e semplificazione delle leggi
3. più chiaro funzionamento delle leggi
4. più chiare modalità per fare rispettare le leggi
5. più semplice valutazione dell’impatto delle leggi

Sacco_FrancescoViene da pensare, con l’economista Francesco Sacco che ne ha scritto su Nòva Il Sole 24 Ore, che al di là della domanda di diritti elaborata a fondo nel XX secolo, le popolazioni del XXI secolo chiedano anche e forse soprattutto risultati. “In Italia” scrive per esempio Sacco “gli imprenditori chiedono meno burocrazia e il Governo vorrebbe accontentarli. Ma ridurre la burocrazia, che si nutre di leggi, con nuove leggi, è una cura che funziona con difficoltà. Va cambiato alla radice il sistema operativo del Paese, il modo in cui esso stesso funziona. Da analogico-burocratico andrebbe trasformato in digitale-applicativo”. Quella di Sacco non è una metafora ma una proposta: “La maggior parte delle norme prescrivono – come farebbe un algoritmo – ciò che va fatto o potrebbe esser fatto al ricorrere di certe condizioni oppure, come fa un modello entità-relazioni per definire un database, sono definitorie di entità – soggetti o fattispecie – e/o delle loro relazioni”. Inoltre, per Sacco, questa proposta non è utopistica ma già in corso di attuazione: “In parte la trasformazione delle leggi in formato digitale-applicativo è già in corso. Ad esempio, l’intero Codice di Procedura Civile italiano, ma anche le statistiche di funzionamento di tutti i tribunali, sono già stati incorporati in un software (Epc) che è usato in Italia da tutte le principali banche e assicurazioni con circa 20mila operatori che gestiscono quotidianamente circa 150 miliardi di crediti incagliati in 1,5 milioni di pratiche distribuite su più di 15mila legali. I costi legali del recupero crediti si sono ridotti anche del 30%, ma, soprattutto, si sono ridotti enormemente gli errori procedurali con notevoli impatti sull’efficienza del recupero. Considerando che un miglioramento dell’1% vale 1,5 miliardi di euro, è un investimento sicuramente redditizio. Se fosse incorporato anche solo in parte nella gestione della giustizia italiana o dell’amministrazione, sarebbe una concreta rivoluzione” (Nòva). La stessa interpretazione delle norme è “digitalizzabile” almeno per quanto riguarda i temi più noti e stabilizzati e il sistema di condivisione della conoscenza giuridica progettato e realizzato dallo Studio Toffoletto De Luca Tamajo è una risposta già operativa che ha conseguenze rilevanti sul funzionamento dello studio e sul suo servizio ai clienti (Nòva).

I passaggi di maturazione di questa tendenza in altri paesi lasciano pensare che possa essere qualcosa di più di un’ipotesi. Nel Regno Unito tutto il corpus legislativo è ufficialmente online in un sistema che consente interrogazioni ed elaborazioni ampie ed efficienti (Nòva). In pratica ogni legge e ogni comma sono dotati di un identificativo unico e sono disponibili in formato aperto usando un’interfaccia programmabile (Legislation). Non è facilissimo, naturalmente. Ma si può immaginare che un buon sistema di programmazione su una base di dati come questa possa arrivare a riconoscere le leggi definitivamente abrogate, quelle che sono in funzione anche se sono state emendate e le renda più leggibili connettendo le norme e gli emendamenti in modo meno astruso di quello che si usa sulla carta (dove le nuove leggi sono infarcite di rimandi alle precedenti e non si riescono a leggere in modo semplice). In Italia, Normattiva è un inizio in questa direzione, anche se non gode dell’ufficialità che è invece attribuita alla versione inglese.

La digitalizzazione della normativa, la sua utilizzabilità con programmi che la analizzino, la sua interpretazione con l’ausilio di basi di dati giurisprudenziali efficienti rispondono all’esigenza di facilitare la conoscenza della legge e probabilmente aprono la strada a una concreta semplificazione.

Ma per quanto riguarda la facilità di applicazione delle leggi e delle modalità con le quali si fanno rispettare i passaggi progettuali vanno ancora approfonditi e sperimentati. Sacco ha un’idea, in proposito: “Partendo dalla ridefinizione recente delle banche dati d’interesse nazionale e dalle tre priorità definite dalla task force del precedente Governo (anagrafe unica digitale, fatturazione elettronica e identità digitale), l’intero processo legislativo potrebbe essere rivisto, puntando a definire prima ancora di una nuova legge la sua implementazione software e la sua integrazione all’interno del sistema informatico pubblico. La si potrebbe immaginare come una lunga serie di scelte fatta su un’app su Internet, ma che alla fine produce gli effetti desiderati in modo trasparente, eliminando tutta la carta che va in giro. Questa soluzione rispetto ad una norma “analogica” non solo sarebbe più flessibile per i piccoli aggiustamenti o chiarimenti, che sono sempre necessari ma avrebbe un costo di controllo e di enforcement praticamente nullo, perché ciò che non è possibile scegliere in un menu non può semplicemente essere fatto”.

Forse non tutte le leggi sono applicabili in questo modo. Ma di certo molte leggi che hanno un impatto pratico sulla vita quotidiana potrebbero essere fatte così. Non c’è nulla di strano: già oggi, ogni giorno seguiamo le leggi imposte dalla nostra applicazione preferita sul cellulare e non abbiamo problemi a rispettarle.

C’è poi una conseguenza in più di un’impostazione del genere. Poiché le leggi di questo tipo si rispettano usandole, cioè applicandole, il sistema in cloud che offre il servizio raccoglie informazioni. Potrebbe essere un Grande Fratello. Ma potrebbe essere un modo per valutare i risultati raggiunti da una legge. E correggerla in funzione della sua efficacia. Ma che si vada nella prima o nella seconda direzione dipende dal contesto costituzionale e politico. Oltre che educativo e culturale.

La rivalutazione della cultura tecnica in questo contesto politico, giuridico e amministrativo serve a impedire una rinuncia implicita alla capacità di governare la convivenza democraticamente che potrebbe avvenire in una società che non sia consapevole del fatto che il codice è codice. Serve a responsabilizzare i tecnici sottilineando come i loro valori e i loro comportamenti hanno una conseguenza culturale e sociale di primissimo ordine. Serve a motivare una politica di profondo investimento nell’educazione digitale della popolazione di una società che voglia almeno un po’ essere autrice del proprio destino.

Vedi anche
Rodotà: democrazia e tecnologia
L’oscurantismo, la ricerca, i diritti umani. E la Commissione alla Camera per i principi dell’Internet Bill of Rights

Questo post è un work in progress ovviamente. Spero molto nei contributi e nelle segnalazioni dei commentatori per arricchire di esempi esperienze e segnalazioni questa ricerca.

Chi vince piglia tutto: concentrazione, power law e net neutrality

La stima che non si può non provare per Carlo Alberto Carnevale Maffè, anche quando fa i suoi giochi di ruolo, impedisce di lasciar passare sotto silenzio la sua provocazione sulla net neutrality.

Dice Carlo Alberto che i dati parlano chiaro (a lui): la net neutrality (secondo lui) è un gioco in cui chi vince piglia tutto, cioè determina forme di mercato in cui ci sono pochi player dominanti e poco spazio per le piccole imprese; per provare questa idea mostra una tabella che dice qualcosa di molto diverso, cioè che nella app economy c’è una forte concentrazione (da DeveloperEconomics).

app_economy

Si è sbagliato, Carlo Alberto? Che c’entra la tabella con quello che dice? Ovviamente il suo è un ragionamento più sottile. Troppo sottile.

Che ci sia concentrazione nella app economy è un fenomeno emergente collegato alle regolarità tipiche di ogni rete.

Come scriveva Bernardo Huberman già negli anni Novanta nella competizione che avviene in ogni struttura a rete tende a esserci un grande vincitore per ogni categoria. L’effetto-rete infatti tende a dare geometricamente maggior valore alla tecnologia che viene usata di più e quindi quando una tecnologia decolla i competitori restano indietro, le risorse si concentrano sulla tecnologia vincente e alla fine ne resta una sola. Per ogni categoria.

Non ci stupisce la concentrazione nella app economy, dunque. Stupisce il collegamento “originale” di Carlo Alberto con la net neutrality. Andiamo a fondo.

In ogni rete c’è una tendenza alla concentrazione. La Microsoft degli anni Novanta aveva il sistema operativo dominante per effetto-rete. Google è il motore dominante per effetto-rete. Facebook è il social network dominante per purissimo effetto-rete. Che cosa c’entra la net neutrality? Un momento, ancora un passaggio…

Non solo nelle reti c’è concentrazione. Nell’automobile c’è concentrazione. Nella produzione di aerei per i passeggeri c’è iperconcentrazione. Qui la net neutrality proprio non c’entra. Anche nelle televisioni c’è concentrazione. E anche qui la net neutrality non c’entra. Anche nelle compagnie telefoniche c’è concentrazione: e sono loro che preferirebbero abolire la net neutrality…

Allora.

1. La concentrazione è un fenomeno del capitalismo che si collega a diversi fattori: mercati maturi, forti economie di scala, protezionismo statale, deregolamentazione del settore finanziario. (L’ultima è per provocare Carlo Alberto, ma è anche vera…).

2. La concentrazione nelle reti è un fenomeno tecnico delle reti. Ma vale per ogni categoria come spiegava Huberman. Cioè chi vince nei motori di ricerca non è detto che vinca nei social network. Chi vince nei sistemi operativi per pc non è detto che vinca nei sistemi operativi per telefonini. E così via.

3. La net neutrality è collegata alla concentrazione: ma esattamente al contrario di quanto sostiene Carlo Alberto.

In una rete neutrale nella quele improvvisamente si elimini la net neutrality, le forme di concentrazione acquisita rimangono. Niente le elimina. Quello che viene eliminato è la possibilità di nuove idee di provare a cercare il successo senza chiedere il permesso a chi controlla le reti. Viene eliminata la possibilità di fare concorrenza ai player dominanti esistenti.

Nelle reti neutrali chi innova può provare a cercare il successo senza chiedere il permesso a nessuno. Se riesce a inventare una nuova categoria di rete (come ha fatto Steve Jobs con l’iPhone) o a giocare meglio di altri in una categoria emergente (come è successo a Facebook), può sperare di acquisire una certa forza di mercato e dominare la sua categoria. Abbassando dunque la concentrazione nel sistema internet nel suo complesso. Se non c’è net neutrality questo non può avvenire.

La prova è data da ciò che avviene nella rete mobile dove non c’è neutralità: in quel contesto, gli operatori possono scegliere a quali applicazioni concedere la loro rete e alcuni di essi hanno impedito per esempio l’uso di Skype. Il che significa che senza neutralità non si fa innovazione senza chiedere il permesso degli operatori. Se un’innovazione non piace agli operatori non può andare sul mercato, come sarebbe accaduto a Skype se non ci fosse stata neutralità nella rete fissa. Senza neutralità dunque c’è più concentrazione non meno concentrazione.

L’oscurantismo, la ricerca, i diritti umani. E la Commissione alla Camera per i principi dell’Internet Bill of Rights

Vale la pena di dedicare attenzione ai lavori della “Commissione di studio promossa dalla Presidente della Camera dei deputati, Laura Boldrini, per elaborare principi e linee guida in tema di garanzie, diritti e doveri per l’uso di Internet”?

Per rispondere positivamente occorrerebbe ipotizzare che il tema sia legittimo e importante, che la partecipazione allo studio sia aperta ai cittadini di buona volontà che vogliono contribuire civicamente e che il risultato possa effettivamente avere un valore intellettuale, politico e organizzativo.

Si tratta di ipotesi che possono effettivamente trovare una verifica solo all’atto pratico, cioè seguendo i lavori (e giusto per trasparenza avrò modo di seguirli direttamente avendo ricevuto l’onore di essere invitato a partecipare alla Commissione). Discutendo di questi aspetti, molti hanno già risposto positivamente o negativamente. Vale la pena di osservare in proposito che una valutazione preliminare su queste cose è necessaria, ma una risposta certa alle ipotesi citate rischia di essere vagamente ideologica – in positivo o in negativo – oppure basata su uno scetticismo radicato, non privo di motivazioni ma certamente inutile a chi speri che si possa tirar fuori un risultato positivo da una nuova sfida. Anche perché le previsioni sui risultati di un’azione non si possono basare solo sull’esperienza precedente: in effetti, ciò che avverrà dipende da chi partecipa, in aula e sui media civici. Sappiamo infatti che la Commissione funzionerà alimentando e ascoltando anche una consultazione aperta in rete: con questo almeno la seconda delle tre ipotesi trova già risposta. Per il resto, anche in questo caso, il futuro non è ciò che succederà ma la conseguenza di ciò che facciamo.

Per prepararci alla prima questione – se cioè il tema sia legittimo e importante – si deve affrontare di petto il tema di fondo di molte discussioni sulla relazione tra norme e internet. Esiste infatti un’idea diffusa secondo la quale internet non abbia bisogno di intervento normativo, perché funziona bene com’è e perché qualunque intervento normativo rischia di rovinarla. E – accidenti! – quel rischio è talmente reale, come si è dimostrato in una quantità di casi così grande, che si fatica a dipanare la matassa.

Ma prendiamo il caso fondamentale della net neutrality. Internet funziona bene com’è se la rete è neutrale nei confronti dei pacchetti di dati che la percorrono. Se non c’è net neutrality non c’è internet. E qualcuno che faccia la norma che garantisce la net neutrality c’è: può essere la compagnia telefonica che gestisce la rete, può essere la comunità dei tecnici che progettano la rete, può essere lo stato o una comunità di stati. Molte telco tendono a sperare di poter abolire la net neutrality per sostituirla con un concetto più vago di “internet aperta” ma il cui traffico può essere prioritizzato a loro discrezione. Un gruppo di società – tra le quali Google, Facebook, Netflix, eBay come si diceva – chiede invece che la net neutrality sia garantita per legge ed estesa anche alla rete mobile. Moltissimi cittadini non sanno di che cosa si sta parlando. Ma appena viene spiegata la questione, non si fatica a comprendere che dalla net neutrality dipende l’innovatività del sistema, perché essa non concede ai poteri economici esistenti l’arbitrio sull’innovazione – e sull’informazione – che può e non può arrivare a proporsi ai cittadini. In Brasile lo stato è intervenuto con il Marco Civil e ha stabilito che la net neutrality va garantita per legge. Se non c’è una legge, le compagnie non possono fare ciò che vogliono. Se non c’è una legge la net neutrality non è garantita. Questa è una scelta che può essere legittimamente posta all’attenzione di un organismo politico come il Parlamento. Altrimenti i cittadini sensibili al tema potranno difendersi soltanto costruendosi una nuova rete, neutrale non per legge ma per regola cooperativistica: ma, per la verità, questa è un’alternativa inutilmente utopistica.

La net neutrality garantita dalla legge è un esempio di una regola di tipo “costituzionale” per la rete.

Un altro esempio può essere il diritto di accesso universale in larga banda. Se la società della conoscenza può essere vissuta appieno solo avendo la possibilità di accedere alla rete in condizioni adeguate e se il mercato non è in grado di raggiungere ogni area abitata, è legittimo che un intervento normativo si occupi della questione.

Forse fin qui si può immaginare un consenso relativamente largo. Anche se gli avversari della net neutrality sono potenti lobbisti non si può negare che il tema – qualunque sia la scelta che si prenderà – sia legittimamente un tema adatto a essere preso in considerazione dalle norme. E anche se il diritto all’accesso universale andrebbe certamente accompagnato dal diritto a un’istruzione significaticamente diffusa all’uso della rete e dal diritto ad avere servizi pubblici adeguati che ne motivino l’utilizzo. Si tratta peraltro di corollari importantissimi che non mettono in discussione la legittimità di normare il diritto all’accesso.

Di certo, le controversie diventano più intricate quando si va su temi più puntuali come il copyright, le tasse, il cyberbullismo e molte altre questioni che inducono i legislatori a proporre leggi dedicate a internet.

A questo proposito la Commissione – va sottolineato – non si occupa delle singole norme ma del metodo con il quale si prendono in considerazione e si adottano. Quindi su questo si può arrivare a una forma “costituzionale”, una forma di metodo, che sia orientato a indirizzare le norme in materie collegate a internet in modo che tengano conto consapevolmente della complessità dell’ecosistema internettiano. Chissà se uscirà una indicazione sulla necessità di un processo multistakeholder. Chissà se si riuscirà a stabilire che le linee guida devono tener conto di una valutazione di impatto digitale. Chissà se si potrà arrivare a suggerire un approccio equilibrato in modo che l’intervento in un particolare settore non sia tale da produrre conseguenze negative in un altro settore nell’inconsapevolezza del legislatore. Questo è il tema costituzionale della Commissione: come garantire che le nuove leggi relative a internet non siano create se se ne può fare a meno e che se sono create siano consapevoli dell’equilibrio degli interessi e dei diritti che presumibilmente vanno a toccare. Tutto questo è estremamente complicato, ma se non si pone il problema non se ne esce e continuiamo a vivere in uno stillicidio di tentativi normativi pericolosi e inconsapevoli: con la conseguenza di continue fiammate di opposizione che finiscono per alimentare un approccio ideologico alle questioni internettiane che presenta limiti molto significativi.

Un’ideologia fondamentalista oscura ogni tentativo di ricerca volta alla comprensione di come stanno le cose in nome di un’interpretazione del mondo che conquista gli animi ma diventa potere. In “Edeologia, Critica del fondamentalismo digitale”, qualche anno fa, mi sono esercitato intorno all’idea che questo fenomeno appartenesse anche al modo con il quale qualcuno interpretava la rete internet. Libro ingenuo, Edeologia (con la “e” di elettronica ovviamente), reagiva alle catastrofiche conseguenze della strumentalizzazione finanziaria del senso di internet sul finire degli anni Novanta che era sfociata nella bolla e nel suo scoppio. Le crisi finanziarie non sarebbero mancate anche successivamente, separate da internet: ma l’edeologia avrebbe continuato latente e in alcuni casi evidente.

Un’ideologia può avere una funzione positiva. Nel caso della rete – una tecnologia che non ha alcun valore se nessuno la usa ma che acquista enorme valore se molti la usano – l’edeologia è servita a convincere le persone a dedicare tempo a internet prima che questa avesse valore in vista di un valore successivo che effettivamente si è realizzato. Ma questo si applica anche ad altre tecnologie di rete, meno neutrali e innocenti, come le piattaforme per la ricerca di informazioni in rete, i social network privati, i servizi che servono a cercare l’anima gemella e così via. Una tensione ideologica resta latente nella rete proprio perché ogni volta è indirizzata a convincere la gente a usare una tecnologia che all’inizio non ha valore e solo quando viene usata ne acquista. Creando non poche conseguenze negative.

Se si lascia solo alle piattaforme private e ai gestori privati delle reti il potere di fare le vere norme che guidano il comportamento delle persone in rete si rischia di perdere quello che la rete come bene comune è riuscita a creare finora. Un’ideologia che si opponga all’intervento pubblico in materia di internet in ogni situazione e su ogni aspetto finisce semplicemente per rafforzare il potere delle grandi compagnie private e ridurre conseguentemente quello dei cittadini. Un’ideologia americanofila che si accontenta di ripetere i mantra lanciati da Silicon Valley non serve all’evoluzione di internet come grande tecnologia innovativa e serve soltanto il successo delle proposte delle compagnie private.

Allo stesso modo, un approccio normativo statalista che pensa in modo distorto alla rete e interviene in modo capillare e inconsapevole è a sua volta enormemente negativo sullo sviluppo innovativo della rete. E imparare dagli americani non è certo un male da questo punto di vista.

Ma si può fare di più. Si può fare ricerca, senza oscurantismo, sulla possibilità di arrivare a una sorta di approccio costituzionale alla rete, in nome dei diritti umani e dell’equilibrio dell’ambiente digitale. È un percorso di ricerca che parte dalla tradizione illuminista intorno ai diritti umani e dalla prassi innovativa dell’ecologia. I successi di questi percorsi ci impediscono di pensare che sia impossibile arrivare a una consapevolezza sull'”ecologia di internet” e sul rilancio dei diritti umani in un’epoca in cui sembra ce ne sia crescente bisogno, non solo nei confronti dell’autocrazia politica ma anche nei confronti della tecnocrazia. Per questo discutere di un Internet Bill of Rights è legittimo e può anche finire con un risultato utile. Dipenderà dai membri della Commissione e soprattutto dai cittadini che parteciperanno alla consultazione.

Da leggere:
Vincenzo Ferrone, Storia dei diritti dell’uomo, Laterza 2014
Marc Augé, L’antropologo e il mondo globale, Cortina 2014 (v.o. 2013)
Stefano Rodotà, Il diritto di avere diritti, Laterza 2012
Antonio Floridia, La democrazia deliberativa: teorie, processi e sistemi, Carocci 2012
Byung-Chul Han, La società della trasparenza, Nottetempo 2014 (v.o. 2012)