Category ricerche

Preconsultazione del tutto informale sull’interoperabilità delle piattaforme

La Commissione della Camera sull’Internet Bill of Rights avanza nel lavoro a velocità notevole. Le prime proposte saranno condivise presto e naturalmente sottoposte a consultazione. Sul lavoro della Commissione le informazioni non mancheranno e arriveranno dalle fonti ufficiali.

Tra i problemi appassionanti, trovo personalmente molto difficile ma molto giusto riflettere sull’interoperabilità delle piattaforme. Si era dato conto di questo dibattito anche su questo blog: È possibile la neutralità delle piattaforme?

Il punto è ovviamente trovare un giusto equilibrio tra il rispetto della libertà di impresa che deve consentire alle piattaforme ovviamente di decidere in che modo e se aprire le loro tecnologie all’interoperabilità e, dall’altra parte, le esigenze dei cittadini che hanno diritti di privacy, gestione delle identità, accesso ai dati e riutilizzo delle conoscenze e valori che loro stessi generano per le piattaforme?

Come si potrebbe formulare un equilibrio di questo genere in termini di proposta? Spero che qualcuno vorrà commentare, anche se capisco che è difficile, in questa preconsultazione non ufficiale e del tutto personale.. Ne farò buon uso.

La popolazione mondiale crescerà anche in questo secolo

La demografia ha scoperto che contrariamente a quanto si è pensato per vent’anni la popolazione non raggiungerà un picco nel 2050 ma continuerà a crescere, arrivando a 11 miliardi con molte probabilità sul finire del secolo (Guardian)

L’Italia è bella ma non attraente

Un’inchiesta di Claudio Gatti sul Sole mostra lo stato di incredibile discredito che patisce l’Italia sui mercati dei capitali internazionali. Scrive Gatti:

“I numeri sono a prova di gufi e disfattisti: tra il 1994 e il 2013, l’Italia ha attratto Investimenti diretti esteri per un totale di 290 miliardi di dollari. Nello stesso ventennio, la Spagna ne ha assorbiti 567, la Germania 799, la Francia 823 e la Gran Bretagna addirittura 1.418 – quasi cinque volte più di noi.”

Nel solo 2013, il Regno Unito ha attratto 37 miliardi, l’Irlanda 36, la Germania 27, l’Olanda 24. L’Italia ha attratto solo 17 miliardi, come la Colombia (fonte, World Investment Report 2014).

Evidentemente è un tema complesso. Ha motivazioni di lunga durata, come il sistema di pregiudizi (ben meritati) sulla corruzione dei politici, la scarsa certezza del diritto, la criminalità organizzata, la disorganizzazione burocratica, la difficoltà delle regole sul lavoro, e così via. E ha motivazioni di breve: la durezza della crisi congiunturale, l’acutezza della difficoltà finanziaria, e così via. Ma non è un tema sul quale non si possa fare qualcosa.

Come dimostra la nostra inabilità a recuperare i soldi europei, siamo poco attenti a cogliere le opportunità offerte dai capitali internazionali. E a maggior ragione ci occupiamo poco di attirare investitori.

Lavorare sulle cause strutturali è un obiettivo obblicato, non solo per attirare capitali ma anche per vivere in un paese decente. Se ci è riuscita la Colombia a mettere in discussione i pregiudizi sulla criminalità, per esempio, perché non dovremmo riuscire noi?

Ma non è con un convegno che si affronta la questione. È cominciando a negoziare in pratica con i potenziali investitori, mettendo a disposizione un metodo per migliorare la nostra capacità di accoglierli. Non chiacchiere, ma relazioni operative. In ballo c’è anche una decina di miliardi potenziali all’anno. E una metodologia per modernizzare il sistema che farebbe indubbiamente bene alla filiera delle startup e dell’innovazione. L’alternativa è che i capitali internazionali ci trattino solo come territorio da predare, comprando marchi presigiosi e aziende in transizione familiare. Non c’è motivo perché non ci si pensi con energia e costanza.

“Surveillance is advertising’s new business model”

Controllare in modo intrusivo la vita delle persone senza farsi troppo notare è diventato il nuovo modello di business della pubblicità, dice l’Economist nel numero in uscita.

Era il tema di partenza del grande pezzo di Ethan Zuckerman per l’Atlantic: “The internet’s original sin”. Accompagnato negli stessi giorni da un grande speech di Maciej Cegłowski.

Da studiare poi: Engineering the public: Big data, surveillance and computational politics di Zeynep Tufekci.

Questo è un promemoria…

Agenzia del lavoro. In Germania

L’agenzia del lavoro tedesca ha 100 mila dipendenti. Paga i sussidi di disoccupazione, organizza la formazione per chi cerca lavoro, connette chi cerca lavoro e chi ha bisogno di lavoratori. È incentivata a metterci poco tempo per trovare il lavoro alla gente perché meno ci mette meno sussidi paga. È impegnata a diffondere costantemente le pratiche che si sono dimostrate efficaci in una città nelle altre città. Riesce a tenere il tempo tra un lavoro e l’altro intorno ai 150 giorni nelle città più dinamiche. E lavora a livello nazionale quindi connette tutti i mercati del lavoro della Germania. La governance è affidata insieme a Stato, sindacati, organizzazioni degli imprenditori. Funziona, secondo il panel che ha parlato oggi a Cernobbio, all’Ambrosetti. L’Italia è lontana. Ma non è impossibile prendere esempio dagli altri. Imparare certe volte è meglio che reinventare. Anche tenendo conto che, mentre i tedeschi hanno costruito l’agenzia in dieci anni, noi possiamo fare prima usando saggiamente le tecnologie di rete. Imho.

Approccio europeo alla valutazione delle università

Invece di fare una classifica delle università, u-Multirank raccoglie tutti i dati che possono servire a valutare gli atenei e poi consente agli utenti di confrontarne la performance in base a quello che per loro è più importante. Non emergono classifiche ma confronti. Non si nascondono i dati e i criteri valutativi dietro la comunicazione dei risultati di una competizione, le cui regole sono decise dalle istituzioni che stilano le classifiche con un approccio piuttosto top-down, ma si danno alle persone gli strumenti per farsi un’idea propria del valore delle università. Chissà che cosa ne pensano gli esperti. Vista da qui, non pare una brutta idea. Ma aspettiamo e speriamo in qualche commento da esperti veri…

È possibile la neutralità delle piattaforme?

Uno studio del Conseil National du Numerique analizza la possibilità di introdurre il concetto della neutralità nell’ambito delle piattaforme, come Apple, YouTube, Facebook e così via. Altri potrebbero chiedere una interoperabilità delle piattaforme, in modo che non siano mondi a parte. Ma nella neutralità, il Conseil vede qualcosa di più, in termini per esempio di accesso ai dati.

Le piattaforme hanno una posizione molto favorevole in un mercato a tre dimensioni:
1. offerta di servizi gratuiti agli utenti che in in cambio cedono dati su loro stessi
2. offerta di servizi per la pubblicità alle aziende che hanno messaggi pubblicitari da inviare agli utenti
3. offerta di una base di utenti ad aziende terze che producono software da vendere agli utenti stessi (le piattaforme trattengono una percentuale del business)

Nella prima dimensione, le piattaforme sembrano delle utility o produttori di software. Nella seconda sembrano editori. Nella terza sembrano negozi online. Se arrivano a conquistare una grande base di utenti con servizi di elevata utilità a prezzi bassi o nulli, giocando sull’esclusività tecnologica, le piattaforme si costruiscono posizioni dominanti nei mercati editoriali e commerciali. E poiché le tecnologie di rete hanno la tendenza a crescere geometricamente di valore con il numero di utenti (per la cosiddetta “legge di metcalfe”), questa posizione dominante diventa dirompente sui mercati adiacenti. Il punto di domanda in quel caso diventa: queste piattaforme vanno regolamentate? E se sì, devono essere regolamentate in base alla loro funzione di “utility”? Oppure devono sottostare a qualche forma di antitrust innovativo? Seguendo l’idea del Conseil si direbbe di sì: devono essere interoperabili, o addirittura neutrali.

Alexandre Bénétreau, Edri, che riassume il rapporto del Conseil, aggiunge peraltro una critica, individuando una sorta di contraddizione francese:

The approach of the French government has its own hypocritical storytelling. The Council of the European Union (EU member state governments) is currently negotiating on the “telecoms single market regulation”, which includes provisions on net neutrality. The French government is taking the position that net neutrality and platform neutrality should be regulated at the same time. The most likely outcome of this approach is to kill the possibility of the EU regulating in favour of net neutrality. If the French government is successful, there will be little or no possibility of the European Commission legislating on either net- or platform neutrality in the foreseeable future.

Probabilmente l’obiettivo dell’interoperabilità è il più coerente per cominciare a porre il tema e a sviluppare una cultura in materia. Si tratta per esempio di aprire alla concorrenza tra “negozi” diversi il sistema di vendita di servizi e applicazioni che è stato sviluppato sulle piattaforme (cloud, device, software). In ogni caso, sarebbe meglio evitare che un concetto di neutralità applicato alle piattaforme renda meno comprensibile la necessità di mantenere neutrale la “piattaforma delle piattaforme”: cioè internet. L’interoperabilità potrebbe essere sufficiente, almeno per cominciare, perché imporrebbe alle piattaforme dominanti di aprire ponti verso le piattaforme emergenti o concorrenti.

Alla base, la neutralità della rete è necessaria per consentire alle piattaforme nascenti di proporre la loro innovazione senza chiedere il permesso agli operatori dell’accesso a internet. Quando sono cresciute un po’, avrebbero bisogno dell’interoperabilità con le piattaforme esistenti e già affermate per potere offrire i loro servizi agli utenti. Neutralità della rete e interoperabilità delle piattaforme, in questo senso, si saldano in una visione aperta di internet.

Vedi anche:
Dibattito editori, autori, Amazon
Anche qui

Pnas e l’esperimento di Facebook

Come si ricorderà, Facebook ha svolto un esperimento su oltre 600 mila utenti per vedere se subivano l’influsso dello stato emotivo dei post scoprendo che la gioia o la depressione sono contagiosi e che i messaggi positivi inducono a pubblicare messaggi positivi, mentre i messaggi negativi inducono a pubblicare messaggi negativi. Gli utenti non erano stati avvertiti del fatto che Facebook avrebbe variato i post che ricevevano per via algoritmica in modo da poter osservare le loro reazioni. Facebook poteva farlo secondo i termini di servizio, ma comunque ha chiesto scusa.

Pnas che ha pubblicato lo studio, ora lo fa precedere da questa precisazione:

PSYCHOLOGICAL AND COGNITIVE SCIENCES
PNAS is publishing an Editorial Expression of Concern re- garding the following article: “Experimental evidence of massive- scale emotional contagion through social networks,” by Adam D. I. Kramer, Jamie E. Guillory, and Jeffrey T. Hancock, which appeared in issue 24, June 17, 2014, of Proc Natl Acad Sci USA (111:8788–8790; first published June 2, 2014; 10.1073/ pnas.1320040111). This paper represents an important and emerg- ing area of social science research that needs to be approached with sensitivity and with vigilance regarding personal privacy issues.

Questions have been raised about the principles of informed consent and opportunity to opt out in connection with the re- search in this paper. The authors noted in their paper, “[The work] was consistent with Facebook’s Data Use Policy, to which all users agree prior to creating an account on Facebook, con- stituting informed consent for this research.” When the authors prepared their paper for publication in PNAS, they stated that: “Because this experiment was conducted by Facebook, Inc. for internal purposes, the Cornell University IRB [Institutional Re- view Board] determined that the project did not fall under Cor- nell’s Human Research Protection Program.” This statement has since been confirmed by Cornell University.

Obtaining informed consent and allowing participants to opt out are best practices in most instances under the US Department of Health and Human Services Policy for the Protection of Human Research Subjects (the “Common Rule”). Adherence to the Com- mon Rule is PNAS policy, but as a private company Facebook was under no obligation to conform to the provisions of the Common Rule when it collected the data used by the authors, and the Common Rule does not preclude their use of the data. Based on the information provided by the authors, PNAS editors deemed it appropriate to publish the paper. It is nevertheless a matter of concern that the collection of the data by Facebook may have involved practices that were not fully consistent with the prin- ciples of obtaining informed consent and allowing participants to opt out. Inder M. Verma, Editor-in-Chief

Questa è la presa di distanza di Cornell University:

ITHACA, N.Y. – Cornell University Professor of Communication and Information Science Jeffrey Hancock and Jamie Guillory, a Cornell doctoral student at the time (now at University of California San Francisco) analyzed results from previously conducted research by Facebook into emotional contagion among its users. Professor Hancock and Dr. Guillory did not participate in data collection and did not have access to user data. Their work was limited to initial discussions, analyzing the research results and working with colleagues from Facebook to prepare the peer-reviewed paper “Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks,” published online June 2 in Proceedings of the National Academy of Science-Social Science.

Because the research was conducted independently by Facebook and Professor Hancock had access only to results – and not to any individual, identifiable data at any time – Cornell University’s Institutional Review Board concluded that he was not directly engaged in human research and that no review by the Cornell Human Research Protection Program was required.

Sarà anche vero che Facebook fa approvare ai suoi utenti un contratto che le consente questo genere di azioni. E sarà vero che Pnas e Cornell non sono d’accordo. O almeno hanno scoperto di non essere d’accordo di fronte alla montagna di proteste che la pubblicazione dello studio ha generato. Sarà sincero il pentimento di Facebook. Ma vale la pena di tenere da parte questi documenti. Perché quello che conta – nella privacy come nell’etica – è la sostanza, non la forma.

Vedi anche:
Fuffa e manipolazione. Esperimenti di Facebook sugli utenti, tipo: “se ti selezioniamo solo i post degli amici contenti tu sei più contento?”
Il genio politico di Guido: il vero esperimento di Facebook
Il codice è codice, la legge è software: la cultura digitale è un diritto

Il codice è codice, la legge è software: la cultura digitale è un diritto

Questo post è un po’ lungo…

L’approccio

Lawrence Lessig ha avuto l’intuizione fondamentale. Con il libro “Code and other laws of cyberspace” e l’articolo per Harvard Magazine “Code is law” del gennaio 2000 – scritti al culmine della irrazionale euforia per la bolla delle dot-com – ha contribuito ad aprire una strada:

lessig-column

“Every age has its potential regulator, its threat to liberty. Our founders feared a newly empowered federal government; the Constitution is written against that fear. John Stuart Mill worried about the regulation by social norms in nineteenth-century England; his book On Liberty is written against that regulation. Many of the progressives in the twentieth century worried about the injustices of the market. The reforms of the market, and the safety nets that surround it, were erected in response.

Ours is the age of cyberspace. It, too, has a regulator. This regulator, too, threatens liberty. But so obsessed are we with the idea that liberty means “freedom from government” that we don’t even see the regulation in this new space. We therefore don’t see the threat to liberty that this regulation presents.

This regulator is code—the software and hardware that make cyberspace as it is. This code, or architecture, sets the terms on which life in cyberspace is experienced. It determines how easy it is to protect privacy, or how easy it is to censor speech. It determines whether access to information is general or whether information is zoned. It affects who sees what, or what is monitored. In a host of ways that one cannot begin to see unless one begins to understand the nature of this code, the code of cyberspace regulates.”

E aggiungeva, a dimostrazione della sua straordinaria capacità visionaria:

“This regulation is changing. The code of cyberspace is changing. And as this code changes, the character of cyberspace will change as well. Cyberspace will change from a place that protects anonymity, free speech, and individual control, to a place that makes anonymity harder, speech less free, and individual control the province of individual experts only.”

Quale sarebbe stato il percorso per questo cambiamento? E chi ne sarebbe stato protagonista? Per Lessig al fondamento della rete internet c’è un codice originario che ha conseguenze molto precise. “The basic code of the Internet implements a set of protocols called TCP/IP. These protocols enable the exchange of data among interconnected networks. This exchange occurs without the networks knowing the content of the data, or without any true idea of who in real life the sender of a given bit of data is. This code is neutral about the data, and ignorant about the user”. La conseguenza è che in questa architettura è che la singola persona è difficilmente tracciabile e che lo scambio di dati è difficile da controllare il che significa che per i governi è complicato regolamentare internet. Chiaramente questa difficoltà favorisce la libertà di espressione ma anche l’attività illegale: in un contesto autoritario ha la positiva conseguenza di difendere chi informa sui fatti; in un contesto criminale ha la conseguenza negativa di difendere per esempio la pedofilia, la diffusione di materiali filonazisti e altro. Lessig si chiede: che cosa ci possiamo fare? “There are many who think that nothing can be done: that the unregulability of the Internet is fixed; that there is nothing we can do to change it; that it will, so long as it is the Internet, remain unregulable space. That its ‘nature’ makes it so”. E’ un approccio molto diffuso. Ma sempre più insostenibile. E non per motivi legali: per motivi che fanno parte integrante della stessa architettura della rete: “But no thought is more dangerous to the future of liberty in cyberspace than this faith in freedom guaranteed by the code. For the code is not fixed. The architecture of cyberspace is not given. Unregulability is a function of code, but the code can change. Other architectures can be layered onto the basic TCP/IP protocols, and these other architectures can make behavior on the Net fundamentally regulable. Commerce is building these other architectures; the government can help; the two together can transform the character of the Net. They can and they are”. Se l’unica difesa della libertà è nel codice, dice Lessig, bisogna fare attenzione: perché il codice può essere cambiato. E quindi qualcuno lo sta cambiando. Generando forme di regolamentazione che non sono necessariamente desiderabili. E che comunque richiedono un pensiero.

Pubblicato nel 2000, questo articolo sembra scritto da chi ha visto il film dello sviluppo di internet negli anni successivi. Le piattaforme commerciali si sono sovrapposte a internet e hanno conquistato miliardi di utenti che non godono di alcun anonimato e i cui messaggi sono perfettamente controllabili. I governi hanno imparato a separare le reti nazionali da quella internazionale e le loro agenzie sono riuscite – come la Nsa – a raccogliere ogni genere di informazioni su chi usa internet e su ciò che fa e scrive usando la rete. Le piattaforme e gli interventi governativi hanno completamente rovesciato la condizione di libertà che appariva il fondamento del protocollo TCP/IP per i cittadini che accettano di usare le piattaforme e che non sono capaci di aggirare le limitazioni e gli interventi delle autorità di governo. E in questo contesto, per i cittadini normali che usano le piattaforme e non si sanno o non si vogliono difendere dalle intrusioni del governo, la quantità di informazioni che può essere collegata alla loro identità e persona è enormemente superiore a quello che avveniva in contesti architetturali precedenti a internet. I cookies e le altre forme di raccolta di informazioni consentono di conoscere l’identità della persona, tutti i suoi dati anagrafici, tutte le sue attività, le sue preferenze anche le più intime, in base proprio a quello che le persone fanno volontariamente online, analizzando le attività e le interazioni con ogni genere di contenuto che si può pubblicare o ricevere in rete e con ogni tipo di relazione sociale che si può coltivare sulle piattaforme.

Il punto di Lessig è che quanto viene difesa la privacy o quanto viene infranta dipende dal codice. Chi scrive il codice scrive la regola. Può essere incentivato a scriverlo in un modo o in un altro dal mercato o dalla legge, ma sarà chi scrive il codice a decidere. Quello che conta, dunque, dice Lessig, sono i valori di chi scrive il software. E i loro valori diventeranno i valori che contano per le regole seguite da chi usa il software. “So should we have a role in choosing this code, if this code will choose our values? Should we care about how values emerge here?”. Certo, si risponderà: dobbiamo avere un modo per influenzare le regole che il codice impone ai comportamenti delle persone. Ma chi e come decide? Molti pensano che si debbano lasciare andare le cose senza interventi governativi. Altri pensano a una pletora di decisioni che possono essere prese per intervenire punto per punto sui problemi emergenti. Probabilmente sono entrambe posizioni sbagliate. Perché chi decide c’è sicuramente.

“Our choice is not between “regulation” and “no regulation.” The code regulates. It implements values, or not. It enables freedoms, or disables them. It protects privacy, or promotes monitoring. People choose how the code does these things. People write the code. Thus the choice is not whether people will decide how cyberspace regulates. People—coders—will. The only choice is whether we collectively will have a role in their choice—and thus in determining how these values regulate—or whether collectively we will allow the coders to select our values for us”.

Il riflesso condizionato che conduce a pensare che sia meglio che il governo resti fuori dalla regolamentazione di internet è un riflesso che nasce da un’ideologia diffusa secondo la quale il mercato o la tecnologia si autoregolamentano nel migliore dei modi possibile. Ma chi può dire che sia vero alla prova dei fatti? “For here’s the obvious point: when government steps aside, it’s not as if nothing takes its place. It’s not as if private interests have no interests; as if private interests don’t have ends that they will then pursue. To push the antigovernment button is not to teleport us to Eden. When the interests of government are gone, other interests take their place. Do we know what those interests are? And are we so certain they are anything better?”.

Il problema non è quello di limitare la libertà del mercato o della tecnologia. Ma di conoscere le conseguenze delle decisioni regolatorie. E cercare di mettere insieme un sistema che – come una costituzione – cerchi di mantenere un equilibrio tra gli interessi. Non c’è una soluzione preconfezionata chiara e semplice. Ma un approccio costituzionale è un modo per trovarla: “Our first response should be hesitation. It is proper to let the market develop first. But as the Constitution checks and limits what Congress does, so too should constitutional values check and limit what a market does. We should test both the laws of Congress and the product of a market against these values. We should interrogate the architecture of cyberspace as we interrogate the code of Congress”.

Una quantità di lavori di ricerca, di attività politiche, di discussioni tecniche si sono succedute a commentare l’evoluzione di internet e delle sue conseguenze sui valori e le regole che governano la società. Secondo Lessig non si può non tener conto di un nuovo soggetto “politico” fondamentale nell’epoca di internet: il potere dei programmatori e la forza regolamentatoria delle piattaforme che la programmazione sviluppa. Sono persone. Hanno interessi. Hanno valori. E sono manipolabili. Oppure possono manipolare. Il corollario è che che non esiste una deregolamentazione in questo settore, ma solo una scelta su chi sia chiamato a regolamentare. Forse non basta per risolvere il problema. Ma di certo lo pone in modo adeguato alla sfida posta da internet alla società umana.

Tutto questo svela due ordini di realtà piuttosto importanti.

Chi ritiene che il mercato sia in grado di autoregolarsi e non debba subire l’interento del governo può avere se sue ragioni sul piano economico, ma queste si fermano di fronte alla scoperta che il codice ha conseguenze normative: le scelte dei programmatori possono essere influenzate dalle logiche del mercato ma non ne sono completamente governate. Perché esiste una dimensione indipendente nella quale valgono i valori dei programmatori, le logiche evolutive della tecnologia, la stessa capacità di interpretare le conseguenze della programmazione sui comportamenti degli utenti. Anzi, questa dimensione non è ininfluente sulla struttura del mercato: la forza normativa del codice software entra in gioco e contribuisce a regolare, implicitamente o esplicitamente, le stesse relazioni di mercato, limitandone alcune e favorendone altre.

Analogamente, chi ritiene invece che il governo debba intervenire per dare una voce democratica alla regolamentazione dei comportamenti umani nel mondo della rete dovrebbe tener conto a sua volta del fatto che il codice ha conseguenze normative. In una certa misura, si può dire che le leggi scritte sulla carta hanno conseguenze mediate dalla tecnologia. La tecnologia, si scopre, ha conseguenze normative autonome e in qualche caso indipendenti dalla lettera delle leggi. Un po’ come la qualità della burocrazia influisce sulla qualità dell’applicazione delle decisioni del governo, così la qualità del software influisce sulla qualità dell’applicazione delle norme decise dal governo. E così come la capacità della burocrazia di interpretare interessi e momenti storici è importante nell’applicazione delle decisioni politiche, allo stesso modo l’interpretazione normativa del codice è importante per comprendere quanto e come le norme politiche saranno davvero efficaci.

Di fronte a tutto questo, la storia ci dice che i governi democratici tendono a subire l’influenza delle lobby finanziarie e ad essere limitati nella loro azione da una conseguente ideologia economicista. Da questo punto di vista gli spazi di manovra per gli interventi regolamentari da parte dei governi sembrano essersi ridotti di fronte alla libertà d’azione della finanza e, grazie agli spazi così aperti nelle normative, le piattaforme tecnologiche di maggior successo si sono rese fondamentalmente autonome dagli stati: dal punto di vista fiscale e dal punto di vista normativo, quasi fossero repubbliche – o imperi – indipendenti.

Ma non è la fine della storia. Forse perché la storia non ha fine. La politica ritorna in mille modi a farsi sentire: nel confronto tra le potenze globali, tra le democrazie occidentali, il nazionalismo russo, la partitocrazia capitalistica cinese, le diverse interpretazioni politiche dell’islam e così via; nella gestione delle tensioni sociali che emergono durante la grande trasformazione che pervade le vecchie economie dominanti che lasciano spazio alle nuove economie emergenti; e nell’invenzione continua di innovazioni anche politiche che emergono dalle profondità dell’internet originaria, ancora generativa e relativamente libera.

La politica

Il codice è legge, l’algoritmo è regola, l’intefaccia è interpretazione. Questo è quanto abbiamo appreso dall’evoluzione del dibattito sul tema posto da Lessig.

Byung_Chul_HanAndrebbe letto il libro di Byung-Chul Han “La società della trasparenza”: il filosofo coreano che insegna a Berlino discute con straordinaria lucidità del mito della trasparenza e lo accosta all’ideologia della perfetta circolazione della moneta, alla concezione efficientista della tecnologia dell’informazione, alla società dell’apparire. Ne emerge una critica fortissima del mito secondo il quale la trasparenza è giusta, bella e vera di per sé. Un’argomentazione da discutere ma che lascia il segno. E andrebbero letti mille altri contributi, sulle conseguenze della rete, comprese quelle politiche. Come per esempio il libro di Antonio Floridia, “La democrazia deliberativa: teorie, processi e sistemi” (Carocci 2012), oppure Stefano Rodotà, “Il diritto di avere diritti” (Laterza 2012, segnalazione), o addirittura per chi abbia tempo in eccesso, il libro dell’autore di questo testo “Media civici” (Feltrinelli 2013). Ma la bibliografia è sterminata. Non è possibile ricostruire tutto in poche righe. Ma si può scegliere. A partire dalla premessa: Il codice è legge, l’algoritmo è regola, l’intefaccia è interpretazione.

In un contesto nel quale le regole fondamentali poste dalla legge del software sono strutturali, cioè vagamente simili a forme costituzionali, il primo passo è quello di individuare i modi con i quali la politica consapevole, se non addirittura democratica, riprende una libertà di manovra e una capacità di influenza sul modo con il quale la società prende decisioni che riguardano i fondamenti della convivenza.

In assenza di politica, la tecnologia pone le sue regole. E le regole dei media sociali influiscono sulla convivenza in un modo molto preciso. Facebook, la più diffusa piattaforma per il social networking, sceglie di condurre le persone che la usano a connettersi sulla base della regola del “mi piace”. Ogni volta che si dichiara che un post “mi piace” la selezione viene registrata e un algoritmo che funziona di default sulla piattaforma fa in modo che le prossime volte che si entra su Facebook le prime informazioni che si vedono sono quelle postate da persone alle quali in passato si è dato un “mi piace”. Poiché il tempo che si passa sulla piattaforma non è infinito, le prime informazioni sono probabilmente molto più viste di quelle che apparirebbero andando avanti nella lettura: alla lunga ci si connette prevalentemente con le persone alle quali si è fatto “mi piace”. Questo algoritmo è un filtro contro l’eccesso di informazione. Comodo, gradevole e con importanti conseguenze. Si formano secondo Eli Pariser (“The filter bubble”) delle bolle mentali e sociali all’interno delle quali le persone incontrano solo persone simili a loro, per curiosità, interessi, ideologie. E’ un modo divertente di socializzare e piuttosto gratificante perché come i “mi piace” si danno, in queste bolle è probabile che i “mi piace” si ricevano. Ma non è necessariamente un buon modo per prendere decisioni che abbiano una valenza politica per una popolazione.

In effetti, le decisioni politiche si prendono anche insieme a chi non piace. Anzi il problema è proprio questo: come costruire regole “costituzionali” che servano a decidere con gli altri cittadini che non hanno necessariamente le stesse opinioni ma secondo un metodo legittimato da tutti. E a questo proposito sta emergendo una nuova ondata innovativa per la generazione di piattaforme che abbiano questa funzione, fatte con un condice, delle regole e un’intefaccia che favoriscano comportamenti adatti a svolgere questa funzione.

Fino a che al di sotto delle piattaforme più utilizzate dalla popolazione connessa in rete esiste sempre una internet neutrale resta possibile l’emergere di nuove piattaforme governante da nuove regole. Nelle profondità della rete, programmatori e innovatori continuano a costruire forme diverse di interpretazione della realtà e dunque nuove opzioni di convivenza connessa. Comprese quelle che riguardano i modi con i quali le società prendono decisioni politiche. E i primi segni di questo lavoro stanno conquistando lentamente il loro posto in rete. Dopo i media sociali, potrebbe essere ora dell’avvento dei media civici.

Le soluzioni in proposito non mancano. Uno studio offerto al Senato della Repubblica Italiana dalla Fondazione Ahref ne ha fatto una sintesi in uno studio che si trova online: I media civici in ambito parlamentare. Liquid Feedback, IdeaScale, Civi.ci e molte altre piattaforme si stanno affacciando all’attenzione delle istituzioni che cercano modi per rigenerare la loro relazione con la popolazione e rivitalizzare la democrazia. La ricerca che li conduce è consapevole del fatto che il codice è legge, l’algoritmo è regola e l’interfaccia è interpretazione: il che significa che i comportamenti degli utenti sono influenzati – spesso profondamente – dalla forma delle piattaforme. La civicità di quei comportamenti è il risultato probabile del design di quelle piattaforme, oltre che di molte altre cose relative al contesto storico e geografico nel quale vengono applicate. L’adozione di quelle piattaforme da parte delle popolazioni nelle loro relazioni con le istituzioni non dipende certo solo dalla forma delle piattaforme, ma di certo le conseguenze di quell’eventuale adozione sono precise per quanto riguarda il comportamento delle persone e dunque la qualità delle decisioni che prendono.

I media civici tengono conto, implicitamente o esplicitamente, di regole che riguardano il modo con il quale le persone si informano, si scambiano opinioni, aggregano le opinioni in istanze operative, votano per mettere in ordine di priorità le loro istanze e confrontano le istanze con i vincoli posti dalla realtà per verificarne la compatibilità per ritornare a generare informazioni e riaprire eventualmente il ciclo. Si danno media civici usati da popolazioni o gruppi che intendono auto-organizzarsi e si danno media civici usati per riqualificare la relazione tra le popolazioni e le istituzioni o addirittura i partiti e le aziende.

Quello che importa sottolineare è che le regole dei media civici sono regole strutturali che influenzano le decisioni. Quindi se la tradizione costituzionale viene presa in conto si possono ispirare i programmatori a costruire piattaforme che per regola tendano a generare comportamenti equilibrati nello scambio di informazioni, nella proposta di opinioni, nelle discussioni per organizzare le istanze, nella qualità della relazione tra le priorità desiderate e le compatibilità storiche vincolanti. Un equilibrio che riguarda la salvaguardia delle minoranze, l’efficacia dei sistemi decisionali, la qualità della documentazione che serve alle informazioni, la condivisione sui vincoli che definiscono le compatibilità, e così via. Non esiste ancora una piattaforma che faccia tutto questo. Ma la strada è segnata e non è detto che sarà mai serviva da una sola piattaforma.

Ma un fatto è certo: queste nuove proposte emerse dalle profondità della rete e dalla sua qualità generativa non potrebbero innovare il panorama socio-politico se l’internet non fosse neutrale, come diceva Lessig, rispetto alle persone e alle idee che fa circolare. E senza regole politiche non esisterebbe alcuna motivazione per pensare che internet possa restare neutrale, o che tenda ad essere facilmente accessibile a tutti. Gli incentivi di mercato, le esigenze delle grandi corporation capitalistiche, o altre forme di influenza sull’evoluzione dei valori e delle decisioni dei programmatori che fanno le piattaforme potrebbero benissimo fare evolvere la rete verso una condizione di accesso non universale a una internet non neutrale. Come è già avvenuto per esempio per quanto riguarda la rete mobile, un enorme successo scaturito da innovazioni tecnologiche, da posizioni conquistate sul mercato, da regolamentazioni sulle aste delle frequenze pubbliche, ma non da un dibattito democratico intorno a questa questione: se gli operatori controllano quello che può e non può passare sulla rete, gli innovatori possono presentare le loro idee solo chiedendo il permesso. E questo limita enormemente l’innovazione. Compresa quella politica, che in un certo senso potrebbe avere conseguenze sul potere dei tecnici e degli operatori. In realtà, la generatività di un sistema dell’innovazione sta nell’equilibrio tra le tensioni legate alle logiche della politica, le evoluzioni legate alla dinamica del mercato e, da non dimenticare, le collaborazioni e le opportunità legate alle condizioni dei beni comuni, risorse che non rispondono né allo stato né al mercato essendo di tutti e ciascuno, manutenute in base a consuetudini e regole sociali e culturali come la vecchia internet neutrale.

rodotà_democrazia_tecnologiaNe viene fuori il dibattito sull’Internet Bill of Rights. Che alla Camera dei deputati italiana ha dato vita a una Commissione dedicata. Il tema è arrivare a una dichiarazione dei diritti, come appunto il secentesco Bill of Rights britannico, per indirizzare le successive normative che riguardano internet tenendo conto degli equilibri che vanno mantenuti per sviluppare il bene comune della conoscenza rappresentato dall’internet salvaguardando e valorizzando i diritti umani che le diverse interpretazioni della rete possono sviluppare oppure comprimere. Il Brasile ha approvato il Marco Civil. E l’Italia, nel semestre del suo speciale servizio all’Europa, si prepara a contribuire a un tema decisivo per la vita civile.

Gli argomenti in discussione sono: la neutralità della rete, privacy e libertà di espressione, accesso universale, apertura dei dati pubblici, sicurezza. Questa è politica nel senso della costruzione di una visione costituzionale che serva a indirizzare le decisioni operative che si prendono in rete, con la rete, per la rete. Ovviamente è solo un aspetto della politica. Ma è quello fondamentale. Le policy non ne sono una conseguenza, ma se tutto va bene, non emergono senza tener conto dei principi costituzionali. E altrettanto si potrebbe dire del software che sostanzia quelle policy.

Già, perché alla fine dei conti, il modo più efficiente di fare le leggi e di farle funzionare è immaginare che siano a loro volta costruite come software.

La policy

Ci avevano pensato in molti. Anche gli scrittori di fantascienza Vernor Vinge e Tom Maddox. La loro visione era quella di uno stato che scrive le leggi come software e le fa applicare come tecnologie. Avevano, in quel lontano 1996, una visione un po’ troppo ispirata al terrore del Grande Fratello, ritenendo che l’efficienza del governo sia sempre collegata alla tentazione di raggiungere un maggiore potere autoritario e non avendo ancora visto quanto le piattaforme private possono ottenere in assenza di interventi statali.

Oggi le premesse per allargare la relazione tra policy e software si sono create. E andrebbero colte, nel rispetto del potenziale Internet Bill of Rights, per ottenere alcune conseguenze piuttosto decisive:

1. più facile accesso alla conoscenza delle leggi
2. più facile innovazione e semplificazione delle leggi
3. più chiaro funzionamento delle leggi
4. più chiare modalità per fare rispettare le leggi
5. più semplice valutazione dell’impatto delle leggi

Sacco_FrancescoViene da pensare, con l’economista Francesco Sacco che ne ha scritto su Nòva Il Sole 24 Ore, che al di là della domanda di diritti elaborata a fondo nel XX secolo, le popolazioni del XXI secolo chiedano anche e forse soprattutto risultati. “In Italia” scrive per esempio Sacco “gli imprenditori chiedono meno burocrazia e il Governo vorrebbe accontentarli. Ma ridurre la burocrazia, che si nutre di leggi, con nuove leggi, è una cura che funziona con difficoltà. Va cambiato alla radice il sistema operativo del Paese, il modo in cui esso stesso funziona. Da analogico-burocratico andrebbe trasformato in digitale-applicativo”. Quella di Sacco non è una metafora ma una proposta: “La maggior parte delle norme prescrivono – come farebbe un algoritmo – ciò che va fatto o potrebbe esser fatto al ricorrere di certe condizioni oppure, come fa un modello entità-relazioni per definire un database, sono definitorie di entità – soggetti o fattispecie – e/o delle loro relazioni”. Inoltre, per Sacco, questa proposta non è utopistica ma già in corso di attuazione: “In parte la trasformazione delle leggi in formato digitale-applicativo è già in corso. Ad esempio, l’intero Codice di Procedura Civile italiano, ma anche le statistiche di funzionamento di tutti i tribunali, sono già stati incorporati in un software (Epc) che è usato in Italia da tutte le principali banche e assicurazioni con circa 20mila operatori che gestiscono quotidianamente circa 150 miliardi di crediti incagliati in 1,5 milioni di pratiche distribuite su più di 15mila legali. I costi legali del recupero crediti si sono ridotti anche del 30%, ma, soprattutto, si sono ridotti enormemente gli errori procedurali con notevoli impatti sull’efficienza del recupero. Considerando che un miglioramento dell’1% vale 1,5 miliardi di euro, è un investimento sicuramente redditizio. Se fosse incorporato anche solo in parte nella gestione della giustizia italiana o dell’amministrazione, sarebbe una concreta rivoluzione” (Nòva). La stessa interpretazione delle norme è “digitalizzabile” almeno per quanto riguarda i temi più noti e stabilizzati e il sistema di condivisione della conoscenza giuridica progettato e realizzato dallo Studio Toffoletto De Luca Tamajo è una risposta già operativa che ha conseguenze rilevanti sul funzionamento dello studio e sul suo servizio ai clienti (Nòva).

I passaggi di maturazione di questa tendenza in altri paesi lasciano pensare che possa essere qualcosa di più di un’ipotesi. Nel Regno Unito tutto il corpus legislativo è ufficialmente online in un sistema che consente interrogazioni ed elaborazioni ampie ed efficienti (Nòva). In pratica ogni legge e ogni comma sono dotati di un identificativo unico e sono disponibili in formato aperto usando un’interfaccia programmabile (Legislation). Non è facilissimo, naturalmente. Ma si può immaginare che un buon sistema di programmazione su una base di dati come questa possa arrivare a riconoscere le leggi definitivamente abrogate, quelle che sono in funzione anche se sono state emendate e le renda più leggibili connettendo le norme e gli emendamenti in modo meno astruso di quello che si usa sulla carta (dove le nuove leggi sono infarcite di rimandi alle precedenti e non si riescono a leggere in modo semplice). In Italia, Normattiva è un inizio in questa direzione, anche se non gode dell’ufficialità che è invece attribuita alla versione inglese.

La digitalizzazione della normativa, la sua utilizzabilità con programmi che la analizzino, la sua interpretazione con l’ausilio di basi di dati giurisprudenziali efficienti rispondono all’esigenza di facilitare la conoscenza della legge e probabilmente aprono la strada a una concreta semplificazione.

Ma per quanto riguarda la facilità di applicazione delle leggi e delle modalità con le quali si fanno rispettare i passaggi progettuali vanno ancora approfonditi e sperimentati. Sacco ha un’idea, in proposito: “Partendo dalla ridefinizione recente delle banche dati d’interesse nazionale e dalle tre priorità definite dalla task force del precedente Governo (anagrafe unica digitale, fatturazione elettronica e identità digitale), l’intero processo legislativo potrebbe essere rivisto, puntando a definire prima ancora di una nuova legge la sua implementazione software e la sua integrazione all’interno del sistema informatico pubblico. La si potrebbe immaginare come una lunga serie di scelte fatta su un’app su Internet, ma che alla fine produce gli effetti desiderati in modo trasparente, eliminando tutta la carta che va in giro. Questa soluzione rispetto ad una norma “analogica” non solo sarebbe più flessibile per i piccoli aggiustamenti o chiarimenti, che sono sempre necessari ma avrebbe un costo di controllo e di enforcement praticamente nullo, perché ciò che non è possibile scegliere in un menu non può semplicemente essere fatto”.

Forse non tutte le leggi sono applicabili in questo modo. Ma di certo molte leggi che hanno un impatto pratico sulla vita quotidiana potrebbero essere fatte così. Non c’è nulla di strano: già oggi, ogni giorno seguiamo le leggi imposte dalla nostra applicazione preferita sul cellulare e non abbiamo problemi a rispettarle.

C’è poi una conseguenza in più di un’impostazione del genere. Poiché le leggi di questo tipo si rispettano usandole, cioè applicandole, il sistema in cloud che offre il servizio raccoglie informazioni. Potrebbe essere un Grande Fratello. Ma potrebbe essere un modo per valutare i risultati raggiunti da una legge. E correggerla in funzione della sua efficacia. Ma che si vada nella prima o nella seconda direzione dipende dal contesto costituzionale e politico. Oltre che educativo e culturale.

La rivalutazione della cultura tecnica in questo contesto politico, giuridico e amministrativo serve a impedire una rinuncia implicita alla capacità di governare la convivenza democraticamente che potrebbe avvenire in una società che non sia consapevole del fatto che il codice è codice. Serve a responsabilizzare i tecnici sottilineando come i loro valori e i loro comportamenti hanno una conseguenza culturale e sociale di primissimo ordine. Serve a motivare una politica di profondo investimento nell’educazione digitale della popolazione di una società che voglia almeno un po’ essere autrice del proprio destino.

Vedi anche
Rodotà: democrazia e tecnologia
L’oscurantismo, la ricerca, i diritti umani. E la Commissione alla Camera per i principi dell’Internet Bill of Rights

Questo post è un work in progress ovviamente. Spero molto nei contributi e nelle segnalazioni dei commentatori per arricchire di esempi esperienze e segnalazioni questa ricerca.

Da vedere! Edge: What’s new in social science

Edge ha organizzato un seminario sulle novità che stanno attraversando le scienze sociali. E ha costruito un webdoc sul seminario che mi pare tutto da vedere. L’impatto dei Big Data, l’impatto dell’emotività nel contesto sociale, la scienza delle connessioni sociali, neuroscienze e società, filosofia sperimentale, e molto altro. Il testo degli interventi è un pdf.

L’oscurantismo, la ricerca, i diritti umani. E la Commissione alla Camera per i principi dell’Internet Bill of Rights

Vale la pena di dedicare attenzione ai lavori della “Commissione di studio promossa dalla Presidente della Camera dei deputati, Laura Boldrini, per elaborare principi e linee guida in tema di garanzie, diritti e doveri per l’uso di Internet”?

Per rispondere positivamente occorrerebbe ipotizzare che il tema sia legittimo e importante, che la partecipazione allo studio sia aperta ai cittadini di buona volontà che vogliono contribuire civicamente e che il risultato possa effettivamente avere un valore intellettuale, politico e organizzativo.

Si tratta di ipotesi che possono effettivamente trovare una verifica solo all’atto pratico, cioè seguendo i lavori (e giusto per trasparenza avrò modo di seguirli direttamente avendo ricevuto l’onore di essere invitato a partecipare alla Commissione). Discutendo di questi aspetti, molti hanno già risposto positivamente o negativamente. Vale la pena di osservare in proposito che una valutazione preliminare su queste cose è necessaria, ma una risposta certa alle ipotesi citate rischia di essere vagamente ideologica – in positivo o in negativo – oppure basata su uno scetticismo radicato, non privo di motivazioni ma certamente inutile a chi speri che si possa tirar fuori un risultato positivo da una nuova sfida. Anche perché le previsioni sui risultati di un’azione non si possono basare solo sull’esperienza precedente: in effetti, ciò che avverrà dipende da chi partecipa, in aula e sui media civici. Sappiamo infatti che la Commissione funzionerà alimentando e ascoltando anche una consultazione aperta in rete: con questo almeno la seconda delle tre ipotesi trova già risposta. Per il resto, anche in questo caso, il futuro non è ciò che succederà ma la conseguenza di ciò che facciamo.

Per prepararci alla prima questione – se cioè il tema sia legittimo e importante – si deve affrontare di petto il tema di fondo di molte discussioni sulla relazione tra norme e internet. Esiste infatti un’idea diffusa secondo la quale internet non abbia bisogno di intervento normativo, perché funziona bene com’è e perché qualunque intervento normativo rischia di rovinarla. E – accidenti! – quel rischio è talmente reale, come si è dimostrato in una quantità di casi così grande, che si fatica a dipanare la matassa.

Ma prendiamo il caso fondamentale della net neutrality. Internet funziona bene com’è se la rete è neutrale nei confronti dei pacchetti di dati che la percorrono. Se non c’è net neutrality non c’è internet. E qualcuno che faccia la norma che garantisce la net neutrality c’è: può essere la compagnia telefonica che gestisce la rete, può essere la comunità dei tecnici che progettano la rete, può essere lo stato o una comunità di stati. Molte telco tendono a sperare di poter abolire la net neutrality per sostituirla con un concetto più vago di “internet aperta” ma il cui traffico può essere prioritizzato a loro discrezione. Un gruppo di società – tra le quali Google, Facebook, Netflix, eBay come si diceva – chiede invece che la net neutrality sia garantita per legge ed estesa anche alla rete mobile. Moltissimi cittadini non sanno di che cosa si sta parlando. Ma appena viene spiegata la questione, non si fatica a comprendere che dalla net neutrality dipende l’innovatività del sistema, perché essa non concede ai poteri economici esistenti l’arbitrio sull’innovazione – e sull’informazione – che può e non può arrivare a proporsi ai cittadini. In Brasile lo stato è intervenuto con il Marco Civil e ha stabilito che la net neutrality va garantita per legge. Se non c’è una legge, le compagnie non possono fare ciò che vogliono. Se non c’è una legge la net neutrality non è garantita. Questa è una scelta che può essere legittimamente posta all’attenzione di un organismo politico come il Parlamento. Altrimenti i cittadini sensibili al tema potranno difendersi soltanto costruendosi una nuova rete, neutrale non per legge ma per regola cooperativistica: ma, per la verità, questa è un’alternativa inutilmente utopistica.

La net neutrality garantita dalla legge è un esempio di una regola di tipo “costituzionale” per la rete.

Un altro esempio può essere il diritto di accesso universale in larga banda. Se la società della conoscenza può essere vissuta appieno solo avendo la possibilità di accedere alla rete in condizioni adeguate e se il mercato non è in grado di raggiungere ogni area abitata, è legittimo che un intervento normativo si occupi della questione.

Forse fin qui si può immaginare un consenso relativamente largo. Anche se gli avversari della net neutrality sono potenti lobbisti non si può negare che il tema – qualunque sia la scelta che si prenderà – sia legittimamente un tema adatto a essere preso in considerazione dalle norme. E anche se il diritto all’accesso universale andrebbe certamente accompagnato dal diritto a un’istruzione significaticamente diffusa all’uso della rete e dal diritto ad avere servizi pubblici adeguati che ne motivino l’utilizzo. Si tratta peraltro di corollari importantissimi che non mettono in discussione la legittimità di normare il diritto all’accesso.

Di certo, le controversie diventano più intricate quando si va su temi più puntuali come il copyright, le tasse, il cyberbullismo e molte altre questioni che inducono i legislatori a proporre leggi dedicate a internet.

A questo proposito la Commissione – va sottolineato – non si occupa delle singole norme ma del metodo con il quale si prendono in considerazione e si adottano. Quindi su questo si può arrivare a una forma “costituzionale”, una forma di metodo, che sia orientato a indirizzare le norme in materie collegate a internet in modo che tengano conto consapevolmente della complessità dell’ecosistema internettiano. Chissà se uscirà una indicazione sulla necessità di un processo multistakeholder. Chissà se si riuscirà a stabilire che le linee guida devono tener conto di una valutazione di impatto digitale. Chissà se si potrà arrivare a suggerire un approccio equilibrato in modo che l’intervento in un particolare settore non sia tale da produrre conseguenze negative in un altro settore nell’inconsapevolezza del legislatore. Questo è il tema costituzionale della Commissione: come garantire che le nuove leggi relative a internet non siano create se se ne può fare a meno e che se sono create siano consapevoli dell’equilibrio degli interessi e dei diritti che presumibilmente vanno a toccare. Tutto questo è estremamente complicato, ma se non si pone il problema non se ne esce e continuiamo a vivere in uno stillicidio di tentativi normativi pericolosi e inconsapevoli: con la conseguenza di continue fiammate di opposizione che finiscono per alimentare un approccio ideologico alle questioni internettiane che presenta limiti molto significativi.

Un’ideologia fondamentalista oscura ogni tentativo di ricerca volta alla comprensione di come stanno le cose in nome di un’interpretazione del mondo che conquista gli animi ma diventa potere. In “Edeologia, Critica del fondamentalismo digitale”, qualche anno fa, mi sono esercitato intorno all’idea che questo fenomeno appartenesse anche al modo con il quale qualcuno interpretava la rete internet. Libro ingenuo, Edeologia (con la “e” di elettronica ovviamente), reagiva alle catastrofiche conseguenze della strumentalizzazione finanziaria del senso di internet sul finire degli anni Novanta che era sfociata nella bolla e nel suo scoppio. Le crisi finanziarie non sarebbero mancate anche successivamente, separate da internet: ma l’edeologia avrebbe continuato latente e in alcuni casi evidente.

Un’ideologia può avere una funzione positiva. Nel caso della rete – una tecnologia che non ha alcun valore se nessuno la usa ma che acquista enorme valore se molti la usano – l’edeologia è servita a convincere le persone a dedicare tempo a internet prima che questa avesse valore in vista di un valore successivo che effettivamente si è realizzato. Ma questo si applica anche ad altre tecnologie di rete, meno neutrali e innocenti, come le piattaforme per la ricerca di informazioni in rete, i social network privati, i servizi che servono a cercare l’anima gemella e così via. Una tensione ideologica resta latente nella rete proprio perché ogni volta è indirizzata a convincere la gente a usare una tecnologia che all’inizio non ha valore e solo quando viene usata ne acquista. Creando non poche conseguenze negative.

Se si lascia solo alle piattaforme private e ai gestori privati delle reti il potere di fare le vere norme che guidano il comportamento delle persone in rete si rischia di perdere quello che la rete come bene comune è riuscita a creare finora. Un’ideologia che si opponga all’intervento pubblico in materia di internet in ogni situazione e su ogni aspetto finisce semplicemente per rafforzare il potere delle grandi compagnie private e ridurre conseguentemente quello dei cittadini. Un’ideologia americanofila che si accontenta di ripetere i mantra lanciati da Silicon Valley non serve all’evoluzione di internet come grande tecnologia innovativa e serve soltanto il successo delle proposte delle compagnie private.

Allo stesso modo, un approccio normativo statalista che pensa in modo distorto alla rete e interviene in modo capillare e inconsapevole è a sua volta enormemente negativo sullo sviluppo innovativo della rete. E imparare dagli americani non è certo un male da questo punto di vista.

Ma si può fare di più. Si può fare ricerca, senza oscurantismo, sulla possibilità di arrivare a una sorta di approccio costituzionale alla rete, in nome dei diritti umani e dell’equilibrio dell’ambiente digitale. È un percorso di ricerca che parte dalla tradizione illuminista intorno ai diritti umani e dalla prassi innovativa dell’ecologia. I successi di questi percorsi ci impediscono di pensare che sia impossibile arrivare a una consapevolezza sull'”ecologia di internet” e sul rilancio dei diritti umani in un’epoca in cui sembra ce ne sia crescente bisogno, non solo nei confronti dell’autocrazia politica ma anche nei confronti della tecnocrazia. Per questo discutere di un Internet Bill of Rights è legittimo e può anche finire con un risultato utile. Dipenderà dai membri della Commissione e soprattutto dai cittadini che parteciperanno alla consultazione.

Da leggere:
Vincenzo Ferrone, Storia dei diritti dell’uomo, Laterza 2014
Marc Augé, L’antropologo e il mondo globale, Cortina 2014 (v.o. 2013)
Stefano Rodotà, Il diritto di avere diritti, Laterza 2012
Antonio Floridia, La democrazia deliberativa: teorie, processi e sistemi, Carocci 2012
Byung-Chul Han, La società della trasparenza, Nottetempo 2014 (v.o. 2012)

Più importante dell’Ilva

Stavo riflettendo… Si stanno di nuovo accendendo i riflettori sulla policy per la filiera delle startup. A Milano, in Emilia Romagna, nel Lazio, a Torino, nel Veneto, in Puglia e in realtà un po’ dappertutto ci si pongono domande su come accelerare la creazione di nuove imprese innovative. Si parla di educazione, di finanziamenti, di exit, di internazionalizzazione. Si pensa agli ecosistemi.

Ma resta difficile valutare una misura del successo. Raggiungibile. D’impatto.

Supponiamo di arrivare presto a ventimila occupati nelle startup innovative (non è impossibile se sono quasi duemila e potrebbero arrivare a occupare dieci persone l’una). Supponiamo che la filiera delle startup arrivi a essere considerata da tutti strategica per il sistema economico italiano (non è impossibile visto che tanti opinion leader, ragazzi, imprenditori, finanziatori, esperti lo dicono e visto che la strada dell’innovazione è tanto oggettivamente importante per settori che devono accelerare di fronte al cambiamento dal turismo alle macchine per l’industria, dalle banche all’editoria e così via). Supponiamo che la filiera delle startup si presenti come poco o punto inquinante. E che abbia un indotto significativo in servizi e altro.

A queste tre condizioni, raggiungibili, dovremmo ammettere che la filiera delle startup apparirebbe immediatamente come una realtà economica più importante dell’Ilva.

Oppure, tabù, più importante dell’Alitalia.

Sarebbe uno svelamento. La cui conseguenza sarebbe chiara: una concentrazione del governo, dell’opinione pubblica, dell’imprenditoria sulla filiera delle startup uguale o superiore a quella che ha meritato l’Ilva. Che è importante ci mancherebbe. Ma con quella dimensione di importanza.

Se le startup nell’insieme sono viste come più importanti dell’Ilva si passa da un frame orientato alla conservazione a un frame orientato alla costruzione e all’innovazione. Senza fuffa. Con i fatti. Imho.

ps. Alla lunga saranno molto più importanti le startup, intendiamoci. Ci vogliono anche le grandi aziende, certo, eccome: ma per vederle innovare e non chiudere avrebbero anche loro bisogno di buone startup, no? È un ecosistema anche per loro, grandi e piccoli, innovativi e no. Una misura sintetica del valore della filiera delle startup è possibile?

Agenda digitale, riforma strutturale

Le riforme strutturali sono per tutti gli economisti – rigoristi e non – la via maestra per uscire dalla crisi in chiave macroeconomica.

Si parla di flessibilità nelle politiche di controllo del bilancio per poter fare investimenti e alimentare la crescita ma solo in cambio di riforme strutturali (Reuters e Prima).

Si potrebbe precisare.

La modernizzazione digitale della pubblica amministrazione, per esempio, è una riforma strutturale della macchina statale che a sua volta abilita ulteriori riforme strutturali.

Per realizzarla non occorrono spese per l’informatica pubblica, occorrono investimenti pensati per creare una nuova architettura digitale per la pubblica amministrazione che la riforma strutturalmente.

Quindi, da questo punto di vista, non c’è uno scambio tra flessibilità e riforme strutturali: c’è identità tra investimenti e riforme strutturali.

Vedi anche:
Aspettative e realtà: la guida dell’Agid e tutto il resto dell’agenda

Franceschini e Schmidt

Oggi, appunto, si incontra un ministro che guida un’entità di portata economica potenziale gigantesca e un capoazienda che guida un’entità di portata politica potenziale gigantesca. Non so che cosa ne verrà fuori. Ma spero che di fronte agli studenti siano presentate le grandi opportunità offerte dalla trasformazione che stiamo vivendo. Grazie ai commentatori. A più tardi.

Update:

L’incontro c’è appena stato. Le domande erano di gran lunga più grandi del tempo a disposizione. Franceschini e Schmidt sono apparsi, nei rispettivi ruoli, consapevoli dell’importanza delle decisioni che si stanno prendendo per il futuro della cultura, del turismo, dell’organizzazione della conoscenza e delle loro conseguenze sulle opportunità che si aprono.

Le difficoltà da superare secondo Schmidt per il paese sono concentrate nella disponibilità di persone che abbiano un’adeguata preparazione tecnica per usare e soprattutto costruire piattaforme e lanciare startup. Google, ha detto, guarda anche in Italia per trovare startup da acquisire, anche se non ne vede molte. Ma già il fatto che non abbia preclusioni su questo paese è una buona notizia, visto che tanti startupper hanno l’impressione che gli americani non immaginerebbero di realizzare acquisizioni qui. Un buon 1% di crescita del Pil, ha detto, dipende dall’accelerazione dell’economia digitale e il governo è chiamato a fare tutto quanto possibile per agevolare questo sviluppo.

Franceschini ha accennato al decreto già in vigore da una decina di giorni pensato per favorire la digitalizzazione dell’economia culturale e turistica del paese. Ha ammesso i ritardi del sistema italiano. Ha dimostrato la sua consapevolezza sull’importanza del tema e di tutti i passi che si fanno per avvicinarsi ad avviare la definizione di una prospettiva vera. Ha inoltre detto che i problemi della politica che si confronta con le grandi piattaforme extranazionali sono della politica prima di tutto. La politica nazionale è insufficiente e una maggiore integrazione internazionale è necessaria.

Il rapporto tra pubblico e privato, tra mercato e bene comune, tra gratuito e non gratuito in rete è un tema gigantesco e aperto a innovazioni sempre più urgenti e possibili.

Le case cantoniere abbandonate, le stazioni e i fari inutilizzati, ha detto Franceschini, sono nuove risorse per startup culturali che sappiano cogliere l’occasione.

Ma insomma il colloquio è stato un assaggio. E ci vuole tanto di più per sviluppare un’azione forte. La consapevolezza di Franceschini e la simpatia di Schmidt per l’Italia sono due importanti premesse. Molto lavoro però sta a noi cittadini, per fare di queste premesse l’inizio di un discorso da sviluppare sul serio.

Mercati a due facce. Beats, Apple, musica, autori

Francesco Sacco racconta dei two sided markets a Pontecchio Marconi, al Quadrato della radio. Sono i mercati nei quali l’offerta si rivolge contemporaneamente a due tipi diversi di domanda. Per esempio, il motore di ricerca serve ai navigatori di internet e agli inserzionisti pubblicitari. Vengono in mente altre aziende come le compagnie aeree low cost, le carte di credito, e così via. Una parte, in questi mercati, spesso sussidia l’altra: ma entrambe vanno fatte con cura estrema per poter competere.

Michael Vakulenko scrive un pezzo sulla vera motivazione dell’acquisizione di Beats da parte di Apple (Medium) e la spiega richiamando uno speciale mercato a due facce. Vendita di canzoni e vendita di prodotti connessi agli artisti. Beats lo fa, dice Vakulenko, mettendo direttamente in relazione gli autori con il pubblico, mettendo in secondo piano le etichette.

Andrei Hagiu e Julian Wright hanno scritto un articolo sui multisided markets che dimostra la complessità di questi mercati e la loro potenzialità per le imprese che li comprendono. Secondo Sacco, poche imprese italiane operano in questo genere di mercati. In effetti, i brand più famosi italiani fanno il loro prodotto e non piattaforme complesse. Ma si può anche osservare che tra le startup i modelli di business multisided non mancano. Non c’è nessuna ragione perché gli italiani non possano fare piattaforme. Ma, appunto, bisogna capire come funzionano.