Category visioni

Il codice è codice, la legge è software: la cultura digitale è un diritto

Questo post è un po’ lungo…

L’approccio

Lawrence Lessig ha avuto l’intuizione fondamentale. Con il libro “Code and other laws of cyberspace” e l’articolo per Harvard Magazine “Code is law” del gennaio 2000 – scritti al culmine della irrazionale euforia per la bolla delle dot-com – ha contribuito ad aprire una strada:

lessig-column

“Every age has its potential regulator, its threat to liberty. Our founders feared a newly empowered federal government; the Constitution is written against that fear. John Stuart Mill worried about the regulation by social norms in nineteenth-century England; his book On Liberty is written against that regulation. Many of the progressives in the twentieth century worried about the injustices of the market. The reforms of the market, and the safety nets that surround it, were erected in response.

Ours is the age of cyberspace. It, too, has a regulator. This regulator, too, threatens liberty. But so obsessed are we with the idea that liberty means “freedom from government” that we don’t even see the regulation in this new space. We therefore don’t see the threat to liberty that this regulation presents.

This regulator is code—the software and hardware that make cyberspace as it is. This code, or architecture, sets the terms on which life in cyberspace is experienced. It determines how easy it is to protect privacy, or how easy it is to censor speech. It determines whether access to information is general or whether information is zoned. It affects who sees what, or what is monitored. In a host of ways that one cannot begin to see unless one begins to understand the nature of this code, the code of cyberspace regulates.”

E aggiungeva, a dimostrazione della sua straordinaria capacità visionaria:

“This regulation is changing. The code of cyberspace is changing. And as this code changes, the character of cyberspace will change as well. Cyberspace will change from a place that protects anonymity, free speech, and individual control, to a place that makes anonymity harder, speech less free, and individual control the province of individual experts only.”

Quale sarebbe stato il percorso per questo cambiamento? E chi ne sarebbe stato protagonista? Per Lessig al fondamento della rete internet c’è un codice originario che ha conseguenze molto precise. “The basic code of the Internet implements a set of protocols called TCP/IP. These protocols enable the exchange of data among interconnected networks. This exchange occurs without the networks knowing the content of the data, or without any true idea of who in real life the sender of a given bit of data is. This code is neutral about the data, and ignorant about the user”. La conseguenza è che in questa architettura è che la singola persona è difficilmente tracciabile e che lo scambio di dati è difficile da controllare il che significa che per i governi è complicato regolamentare internet. Chiaramente questa difficoltà favorisce la libertà di espressione ma anche l’attività illegale: in un contesto autoritario ha la positiva conseguenza di difendere chi informa sui fatti; in un contesto criminale ha la conseguenza negativa di difendere per esempio la pedofilia, la diffusione di materiali filonazisti e altro. Lessig si chiede: che cosa ci possiamo fare? “There are many who think that nothing can be done: that the unregulability of the Internet is fixed; that there is nothing we can do to change it; that it will, so long as it is the Internet, remain unregulable space. That its ‘nature’ makes it so”. E’ un approccio molto diffuso. Ma sempre più insostenibile. E non per motivi legali: per motivi che fanno parte integrante della stessa architettura della rete: “But no thought is more dangerous to the future of liberty in cyberspace than this faith in freedom guaranteed by the code. For the code is not fixed. The architecture of cyberspace is not given. Unregulability is a function of code, but the code can change. Other architectures can be layered onto the basic TCP/IP protocols, and these other architectures can make behavior on the Net fundamentally regulable. Commerce is building these other architectures; the government can help; the two together can transform the character of the Net. They can and they are”. Se l’unica difesa della libertà è nel codice, dice Lessig, bisogna fare attenzione: perché il codice può essere cambiato. E quindi qualcuno lo sta cambiando. Generando forme di regolamentazione che non sono necessariamente desiderabili. E che comunque richiedono un pensiero.

Pubblicato nel 2000, questo articolo sembra scritto da chi ha visto il film dello sviluppo di internet negli anni successivi. Le piattaforme commerciali si sono sovrapposte a internet e hanno conquistato miliardi di utenti che non godono di alcun anonimato e i cui messaggi sono perfettamente controllabili. I governi hanno imparato a separare le reti nazionali da quella internazionale e le loro agenzie sono riuscite – come la Nsa – a raccogliere ogni genere di informazioni su chi usa internet e su ciò che fa e scrive usando la rete. Le piattaforme e gli interventi governativi hanno completamente rovesciato la condizione di libertà che appariva il fondamento del protocollo TCP/IP per i cittadini che accettano di usare le piattaforme e che non sono capaci di aggirare le limitazioni e gli interventi delle autorità di governo. E in questo contesto, per i cittadini normali che usano le piattaforme e non si sanno o non si vogliono difendere dalle intrusioni del governo, la quantità di informazioni che può essere collegata alla loro identità e persona è enormemente superiore a quello che avveniva in contesti architetturali precedenti a internet. I cookies e le altre forme di raccolta di informazioni consentono di conoscere l’identità della persona, tutti i suoi dati anagrafici, tutte le sue attività, le sue preferenze anche le più intime, in base proprio a quello che le persone fanno volontariamente online, analizzando le attività e le interazioni con ogni genere di contenuto che si può pubblicare o ricevere in rete e con ogni tipo di relazione sociale che si può coltivare sulle piattaforme.

Il punto di Lessig è che quanto viene difesa la privacy o quanto viene infranta dipende dal codice. Chi scrive il codice scrive la regola. Può essere incentivato a scriverlo in un modo o in un altro dal mercato o dalla legge, ma sarà chi scrive il codice a decidere. Quello che conta, dunque, dice Lessig, sono i valori di chi scrive il software. E i loro valori diventeranno i valori che contano per le regole seguite da chi usa il software. “So should we have a role in choosing this code, if this code will choose our values? Should we care about how values emerge here?”. Certo, si risponderà: dobbiamo avere un modo per influenzare le regole che il codice impone ai comportamenti delle persone. Ma chi e come decide? Molti pensano che si debbano lasciare andare le cose senza interventi governativi. Altri pensano a una pletora di decisioni che possono essere prese per intervenire punto per punto sui problemi emergenti. Probabilmente sono entrambe posizioni sbagliate. Perché chi decide c’è sicuramente.

“Our choice is not between “regulation” and “no regulation.” The code regulates. It implements values, or not. It enables freedoms, or disables them. It protects privacy, or promotes monitoring. People choose how the code does these things. People write the code. Thus the choice is not whether people will decide how cyberspace regulates. People—coders—will. The only choice is whether we collectively will have a role in their choice—and thus in determining how these values regulate—or whether collectively we will allow the coders to select our values for us”.

Il riflesso condizionato che conduce a pensare che sia meglio che il governo resti fuori dalla regolamentazione di internet è un riflesso che nasce da un’ideologia diffusa secondo la quale il mercato o la tecnologia si autoregolamentano nel migliore dei modi possibile. Ma chi può dire che sia vero alla prova dei fatti? “For here’s the obvious point: when government steps aside, it’s not as if nothing takes its place. It’s not as if private interests have no interests; as if private interests don’t have ends that they will then pursue. To push the antigovernment button is not to teleport us to Eden. When the interests of government are gone, other interests take their place. Do we know what those interests are? And are we so certain they are anything better?”.

Il problema non è quello di limitare la libertà del mercato o della tecnologia. Ma di conoscere le conseguenze delle decisioni regolatorie. E cercare di mettere insieme un sistema che – come una costituzione – cerchi di mantenere un equilibrio tra gli interessi. Non c’è una soluzione preconfezionata chiara e semplice. Ma un approccio costituzionale è un modo per trovarla: “Our first response should be hesitation. It is proper to let the market develop first. But as the Constitution checks and limits what Congress does, so too should constitutional values check and limit what a market does. We should test both the laws of Congress and the product of a market against these values. We should interrogate the architecture of cyberspace as we interrogate the code of Congress”.

Una quantità di lavori di ricerca, di attività politiche, di discussioni tecniche si sono succedute a commentare l’evoluzione di internet e delle sue conseguenze sui valori e le regole che governano la società. Secondo Lessig non si può non tener conto di un nuovo soggetto “politico” fondamentale nell’epoca di internet: il potere dei programmatori e la forza regolamentatoria delle piattaforme che la programmazione sviluppa. Sono persone. Hanno interessi. Hanno valori. E sono manipolabili. Oppure possono manipolare. Il corollario è che che non esiste una deregolamentazione in questo settore, ma solo una scelta su chi sia chiamato a regolamentare. Forse non basta per risolvere il problema. Ma di certo lo pone in modo adeguato alla sfida posta da internet alla società umana.

Tutto questo svela due ordini di realtà piuttosto importanti.

Chi ritiene che il mercato sia in grado di autoregolarsi e non debba subire l’interento del governo può avere se sue ragioni sul piano economico, ma queste si fermano di fronte alla scoperta che il codice ha conseguenze normative: le scelte dei programmatori possono essere influenzate dalle logiche del mercato ma non ne sono completamente governate. Perché esiste una dimensione indipendente nella quale valgono i valori dei programmatori, le logiche evolutive della tecnologia, la stessa capacità di interpretare le conseguenze della programmazione sui comportamenti degli utenti. Anzi, questa dimensione non è ininfluente sulla struttura del mercato: la forza normativa del codice software entra in gioco e contribuisce a regolare, implicitamente o esplicitamente, le stesse relazioni di mercato, limitandone alcune e favorendone altre.

Analogamente, chi ritiene invece che il governo debba intervenire per dare una voce democratica alla regolamentazione dei comportamenti umani nel mondo della rete dovrebbe tener conto a sua volta del fatto che il codice ha conseguenze normative. In una certa misura, si può dire che le leggi scritte sulla carta hanno conseguenze mediate dalla tecnologia. La tecnologia, si scopre, ha conseguenze normative autonome e in qualche caso indipendenti dalla lettera delle leggi. Un po’ come la qualità della burocrazia influisce sulla qualità dell’applicazione delle decisioni del governo, così la qualità del software influisce sulla qualità dell’applicazione delle norme decise dal governo. E così come la capacità della burocrazia di interpretare interessi e momenti storici è importante nell’applicazione delle decisioni politiche, allo stesso modo l’interpretazione normativa del codice è importante per comprendere quanto e come le norme politiche saranno davvero efficaci.

Di fronte a tutto questo, la storia ci dice che i governi democratici tendono a subire l’influenza delle lobby finanziarie e ad essere limitati nella loro azione da una conseguente ideologia economicista. Da questo punto di vista gli spazi di manovra per gli interventi regolamentari da parte dei governi sembrano essersi ridotti di fronte alla libertà d’azione della finanza e, grazie agli spazi così aperti nelle normative, le piattaforme tecnologiche di maggior successo si sono rese fondamentalmente autonome dagli stati: dal punto di vista fiscale e dal punto di vista normativo, quasi fossero repubbliche – o imperi – indipendenti.

Ma non è la fine della storia. Forse perché la storia non ha fine. La politica ritorna in mille modi a farsi sentire: nel confronto tra le potenze globali, tra le democrazie occidentali, il nazionalismo russo, la partitocrazia capitalistica cinese, le diverse interpretazioni politiche dell’islam e così via; nella gestione delle tensioni sociali che emergono durante la grande trasformazione che pervade le vecchie economie dominanti che lasciano spazio alle nuove economie emergenti; e nell’invenzione continua di innovazioni anche politiche che emergono dalle profondità dell’internet originaria, ancora generativa e relativamente libera.

La politica

Il codice è legge, l’algoritmo è regola, l’intefaccia è interpretazione. Questo è quanto abbiamo appreso dall’evoluzione del dibattito sul tema posto da Lessig.

Byung_Chul_HanAndrebbe letto il libro di Byung-Chul Han “La società della trasparenza”: il filosofo coreano che insegna a Berlino discute con straordinaria lucidità del mito della trasparenza e lo accosta all’ideologia della perfetta circolazione della moneta, alla concezione efficientista della tecnologia dell’informazione, alla società dell’apparire. Ne emerge una critica fortissima del mito secondo il quale la trasparenza è giusta, bella e vera di per sé. Un’argomentazione da discutere ma che lascia il segno. E andrebbero letti mille altri contributi, sulle conseguenze della rete, comprese quelle politiche. Come per esempio il libro di Antonio Floridia, “La democrazia deliberativa: teorie, processi e sistemi” (Carocci 2012), oppure Stefano Rodotà, “Il diritto di avere diritti” (Laterza 2012, segnalazione), o addirittura per chi abbia tempo in eccesso, il libro dell’autore di questo testo “Media civici” (Feltrinelli 2013). Ma la bibliografia è sterminata. Non è possibile ricostruire tutto in poche righe. Ma si può scegliere. A partire dalla premessa: Il codice è legge, l’algoritmo è regola, l’intefaccia è interpretazione.

In un contesto nel quale le regole fondamentali poste dalla legge del software sono strutturali, cioè vagamente simili a forme costituzionali, il primo passo è quello di individuare i modi con i quali la politica consapevole, se non addirittura democratica, riprende una libertà di manovra e una capacità di influenza sul modo con il quale la società prende decisioni che riguardano i fondamenti della convivenza.

In assenza di politica, la tecnologia pone le sue regole. E le regole dei media sociali influiscono sulla convivenza in un modo molto preciso. Facebook, la più diffusa piattaforma per il social networking, sceglie di condurre le persone che la usano a connettersi sulla base della regola del “mi piace”. Ogni volta che si dichiara che un post “mi piace” la selezione viene registrata e un algoritmo che funziona di default sulla piattaforma fa in modo che le prossime volte che si entra su Facebook le prime informazioni che si vedono sono quelle postate da persone alle quali in passato si è dato un “mi piace”. Poiché il tempo che si passa sulla piattaforma non è infinito, le prime informazioni sono probabilmente molto più viste di quelle che apparirebbero andando avanti nella lettura: alla lunga ci si connette prevalentemente con le persone alle quali si è fatto “mi piace”. Questo algoritmo è un filtro contro l’eccesso di informazione. Comodo, gradevole e con importanti conseguenze. Si formano secondo Eli Pariser (“The filter bubble”) delle bolle mentali e sociali all’interno delle quali le persone incontrano solo persone simili a loro, per curiosità, interessi, ideologie. E’ un modo divertente di socializzare e piuttosto gratificante perché come i “mi piace” si danno, in queste bolle è probabile che i “mi piace” si ricevano. Ma non è necessariamente un buon modo per prendere decisioni che abbiano una valenza politica per una popolazione.

In effetti, le decisioni politiche si prendono anche insieme a chi non piace. Anzi il problema è proprio questo: come costruire regole “costituzionali” che servano a decidere con gli altri cittadini che non hanno necessariamente le stesse opinioni ma secondo un metodo legittimato da tutti. E a questo proposito sta emergendo una nuova ondata innovativa per la generazione di piattaforme che abbiano questa funzione, fatte con un condice, delle regole e un’intefaccia che favoriscano comportamenti adatti a svolgere questa funzione.

Fino a che al di sotto delle piattaforme più utilizzate dalla popolazione connessa in rete esiste sempre una internet neutrale resta possibile l’emergere di nuove piattaforme governante da nuove regole. Nelle profondità della rete, programmatori e innovatori continuano a costruire forme diverse di interpretazione della realtà e dunque nuove opzioni di convivenza connessa. Comprese quelle che riguardano i modi con i quali le società prendono decisioni politiche. E i primi segni di questo lavoro stanno conquistando lentamente il loro posto in rete. Dopo i media sociali, potrebbe essere ora dell’avvento dei media civici.

Le soluzioni in proposito non mancano. Uno studio offerto al Senato della Repubblica Italiana dalla Fondazione Ahref ne ha fatto una sintesi in uno studio che si trova online: I media civici in ambito parlamentare. Liquid Feedback, IdeaScale, Civi.ci e molte altre piattaforme si stanno affacciando all’attenzione delle istituzioni che cercano modi per rigenerare la loro relazione con la popolazione e rivitalizzare la democrazia. La ricerca che li conduce è consapevole del fatto che il codice è legge, l’algoritmo è regola e l’interfaccia è interpretazione: il che significa che i comportamenti degli utenti sono influenzati – spesso profondamente – dalla forma delle piattaforme. La civicità di quei comportamenti è il risultato probabile del design di quelle piattaforme, oltre che di molte altre cose relative al contesto storico e geografico nel quale vengono applicate. L’adozione di quelle piattaforme da parte delle popolazioni nelle loro relazioni con le istituzioni non dipende certo solo dalla forma delle piattaforme, ma di certo le conseguenze di quell’eventuale adozione sono precise per quanto riguarda il comportamento delle persone e dunque la qualità delle decisioni che prendono.

I media civici tengono conto, implicitamente o esplicitamente, di regole che riguardano il modo con il quale le persone si informano, si scambiano opinioni, aggregano le opinioni in istanze operative, votano per mettere in ordine di priorità le loro istanze e confrontano le istanze con i vincoli posti dalla realtà per verificarne la compatibilità per ritornare a generare informazioni e riaprire eventualmente il ciclo. Si danno media civici usati da popolazioni o gruppi che intendono auto-organizzarsi e si danno media civici usati per riqualificare la relazione tra le popolazioni e le istituzioni o addirittura i partiti e le aziende.

Quello che importa sottolineare è che le regole dei media civici sono regole strutturali che influenzano le decisioni. Quindi se la tradizione costituzionale viene presa in conto si possono ispirare i programmatori a costruire piattaforme che per regola tendano a generare comportamenti equilibrati nello scambio di informazioni, nella proposta di opinioni, nelle discussioni per organizzare le istanze, nella qualità della relazione tra le priorità desiderate e le compatibilità storiche vincolanti. Un equilibrio che riguarda la salvaguardia delle minoranze, l’efficacia dei sistemi decisionali, la qualità della documentazione che serve alle informazioni, la condivisione sui vincoli che definiscono le compatibilità, e così via. Non esiste ancora una piattaforma che faccia tutto questo. Ma la strada è segnata e non è detto che sarà mai serviva da una sola piattaforma.

Ma un fatto è certo: queste nuove proposte emerse dalle profondità della rete e dalla sua qualità generativa non potrebbero innovare il panorama socio-politico se l’internet non fosse neutrale, come diceva Lessig, rispetto alle persone e alle idee che fa circolare. E senza regole politiche non esisterebbe alcuna motivazione per pensare che internet possa restare neutrale, o che tenda ad essere facilmente accessibile a tutti. Gli incentivi di mercato, le esigenze delle grandi corporation capitalistiche, o altre forme di influenza sull’evoluzione dei valori e delle decisioni dei programmatori che fanno le piattaforme potrebbero benissimo fare evolvere la rete verso una condizione di accesso non universale a una internet non neutrale. Come è già avvenuto per esempio per quanto riguarda la rete mobile, un enorme successo scaturito da innovazioni tecnologiche, da posizioni conquistate sul mercato, da regolamentazioni sulle aste delle frequenze pubbliche, ma non da un dibattito democratico intorno a questa questione: se gli operatori controllano quello che può e non può passare sulla rete, gli innovatori possono presentare le loro idee solo chiedendo il permesso. E questo limita enormemente l’innovazione. Compresa quella politica, che in un certo senso potrebbe avere conseguenze sul potere dei tecnici e degli operatori. In realtà, la generatività di un sistema dell’innovazione sta nell’equilibrio tra le tensioni legate alle logiche della politica, le evoluzioni legate alla dinamica del mercato e, da non dimenticare, le collaborazioni e le opportunità legate alle condizioni dei beni comuni, risorse che non rispondono né allo stato né al mercato essendo di tutti e ciascuno, manutenute in base a consuetudini e regole sociali e culturali come la vecchia internet neutrale.

rodotà_democrazia_tecnologiaNe viene fuori il dibattito sull’Internet Bill of Rights. Che alla Camera dei deputati italiana ha dato vita a una Commissione dedicata. Il tema è arrivare a una dichiarazione dei diritti, come appunto il secentesco Bill of Rights britannico, per indirizzare le successive normative che riguardano internet tenendo conto degli equilibri che vanno mantenuti per sviluppare il bene comune della conoscenza rappresentato dall’internet salvaguardando e valorizzando i diritti umani che le diverse interpretazioni della rete possono sviluppare oppure comprimere. Il Brasile ha approvato il Marco Civil. E l’Italia, nel semestre del suo speciale servizio all’Europa, si prepara a contribuire a un tema decisivo per la vita civile.

Gli argomenti in discussione sono: la neutralità della rete, privacy e libertà di espressione, accesso universale, apertura dei dati pubblici, sicurezza. Questa è politica nel senso della costruzione di una visione costituzionale che serva a indirizzare le decisioni operative che si prendono in rete, con la rete, per la rete. Ovviamente è solo un aspetto della politica. Ma è quello fondamentale. Le policy non ne sono una conseguenza, ma se tutto va bene, non emergono senza tener conto dei principi costituzionali. E altrettanto si potrebbe dire del software che sostanzia quelle policy.

Già, perché alla fine dei conti, il modo più efficiente di fare le leggi e di farle funzionare è immaginare che siano a loro volta costruite come software.

La policy

Ci avevano pensato in molti. Anche gli scrittori di fantascienza Vernor Vinge e Tom Maddox. La loro visione era quella di uno stato che scrive le leggi come software e le fa applicare come tecnologie. Avevano, in quel lontano 1996, una visione un po’ troppo ispirata al terrore del Grande Fratello, ritenendo che l’efficienza del governo sia sempre collegata alla tentazione di raggiungere un maggiore potere autoritario e non avendo ancora visto quanto le piattaforme private possono ottenere in assenza di interventi statali.

Oggi le premesse per allargare la relazione tra policy e software si sono create. E andrebbero colte, nel rispetto del potenziale Internet Bill of Rights, per ottenere alcune conseguenze piuttosto decisive:

1. più facile accesso alla conoscenza delle leggi
2. più facile innovazione e semplificazione delle leggi
3. più chiaro funzionamento delle leggi
4. più chiare modalità per fare rispettare le leggi
5. più semplice valutazione dell’impatto delle leggi

Sacco_FrancescoViene da pensare, con l’economista Francesco Sacco che ne ha scritto su Nòva Il Sole 24 Ore, che al di là della domanda di diritti elaborata a fondo nel XX secolo, le popolazioni del XXI secolo chiedano anche e forse soprattutto risultati. “In Italia” scrive per esempio Sacco “gli imprenditori chiedono meno burocrazia e il Governo vorrebbe accontentarli. Ma ridurre la burocrazia, che si nutre di leggi, con nuove leggi, è una cura che funziona con difficoltà. Va cambiato alla radice il sistema operativo del Paese, il modo in cui esso stesso funziona. Da analogico-burocratico andrebbe trasformato in digitale-applicativo”. Quella di Sacco non è una metafora ma una proposta: “La maggior parte delle norme prescrivono – come farebbe un algoritmo – ciò che va fatto o potrebbe esser fatto al ricorrere di certe condizioni oppure, come fa un modello entità-relazioni per definire un database, sono definitorie di entità – soggetti o fattispecie – e/o delle loro relazioni”. Inoltre, per Sacco, questa proposta non è utopistica ma già in corso di attuazione: “In parte la trasformazione delle leggi in formato digitale-applicativo è già in corso. Ad esempio, l’intero Codice di Procedura Civile italiano, ma anche le statistiche di funzionamento di tutti i tribunali, sono già stati incorporati in un software (Epc) che è usato in Italia da tutte le principali banche e assicurazioni con circa 20mila operatori che gestiscono quotidianamente circa 150 miliardi di crediti incagliati in 1,5 milioni di pratiche distribuite su più di 15mila legali. I costi legali del recupero crediti si sono ridotti anche del 30%, ma, soprattutto, si sono ridotti enormemente gli errori procedurali con notevoli impatti sull’efficienza del recupero. Considerando che un miglioramento dell’1% vale 1,5 miliardi di euro, è un investimento sicuramente redditizio. Se fosse incorporato anche solo in parte nella gestione della giustizia italiana o dell’amministrazione, sarebbe una concreta rivoluzione” (Nòva). La stessa interpretazione delle norme è “digitalizzabile” almeno per quanto riguarda i temi più noti e stabilizzati e il sistema di condivisione della conoscenza giuridica progettato e realizzato dallo Studio Toffoletto De Luca Tamajo è una risposta già operativa che ha conseguenze rilevanti sul funzionamento dello studio e sul suo servizio ai clienti (Nòva).

I passaggi di maturazione di questa tendenza in altri paesi lasciano pensare che possa essere qualcosa di più di un’ipotesi. Nel Regno Unito tutto il corpus legislativo è ufficialmente online in un sistema che consente interrogazioni ed elaborazioni ampie ed efficienti (Nòva). In pratica ogni legge e ogni comma sono dotati di un identificativo unico e sono disponibili in formato aperto usando un’interfaccia programmabile (Legislation). Non è facilissimo, naturalmente. Ma si può immaginare che un buon sistema di programmazione su una base di dati come questa possa arrivare a riconoscere le leggi definitivamente abrogate, quelle che sono in funzione anche se sono state emendate e le renda più leggibili connettendo le norme e gli emendamenti in modo meno astruso di quello che si usa sulla carta (dove le nuove leggi sono infarcite di rimandi alle precedenti e non si riescono a leggere in modo semplice). In Italia, Normattiva è un inizio in questa direzione, anche se non gode dell’ufficialità che è invece attribuita alla versione inglese.

La digitalizzazione della normativa, la sua utilizzabilità con programmi che la analizzino, la sua interpretazione con l’ausilio di basi di dati giurisprudenziali efficienti rispondono all’esigenza di facilitare la conoscenza della legge e probabilmente aprono la strada a una concreta semplificazione.

Ma per quanto riguarda la facilità di applicazione delle leggi e delle modalità con le quali si fanno rispettare i passaggi progettuali vanno ancora approfonditi e sperimentati. Sacco ha un’idea, in proposito: “Partendo dalla ridefinizione recente delle banche dati d’interesse nazionale e dalle tre priorità definite dalla task force del precedente Governo (anagrafe unica digitale, fatturazione elettronica e identità digitale), l’intero processo legislativo potrebbe essere rivisto, puntando a definire prima ancora di una nuova legge la sua implementazione software e la sua integrazione all’interno del sistema informatico pubblico. La si potrebbe immaginare come una lunga serie di scelte fatta su un’app su Internet, ma che alla fine produce gli effetti desiderati in modo trasparente, eliminando tutta la carta che va in giro. Questa soluzione rispetto ad una norma “analogica” non solo sarebbe più flessibile per i piccoli aggiustamenti o chiarimenti, che sono sempre necessari ma avrebbe un costo di controllo e di enforcement praticamente nullo, perché ciò che non è possibile scegliere in un menu non può semplicemente essere fatto”.

Forse non tutte le leggi sono applicabili in questo modo. Ma di certo molte leggi che hanno un impatto pratico sulla vita quotidiana potrebbero essere fatte così. Non c’è nulla di strano: già oggi, ogni giorno seguiamo le leggi imposte dalla nostra applicazione preferita sul cellulare e non abbiamo problemi a rispettarle.

C’è poi una conseguenza in più di un’impostazione del genere. Poiché le leggi di questo tipo si rispettano usandole, cioè applicandole, il sistema in cloud che offre il servizio raccoglie informazioni. Potrebbe essere un Grande Fratello. Ma potrebbe essere un modo per valutare i risultati raggiunti da una legge. E correggerla in funzione della sua efficacia. Ma che si vada nella prima o nella seconda direzione dipende dal contesto costituzionale e politico. Oltre che educativo e culturale.

La rivalutazione della cultura tecnica in questo contesto politico, giuridico e amministrativo serve a impedire una rinuncia implicita alla capacità di governare la convivenza democraticamente che potrebbe avvenire in una società che non sia consapevole del fatto che il codice è codice. Serve a responsabilizzare i tecnici sottilineando come i loro valori e i loro comportamenti hanno una conseguenza culturale e sociale di primissimo ordine. Serve a motivare una politica di profondo investimento nell’educazione digitale della popolazione di una società che voglia almeno un po’ essere autrice del proprio destino.

Vedi anche
Rodotà: democrazia e tecnologia
L’oscurantismo, la ricerca, i diritti umani. E la Commissione alla Camera per i principi dell’Internet Bill of Rights

Questo post è un work in progress ovviamente. Spero molto nei contributi e nelle segnalazioni dei commentatori per arricchire di esempi esperienze e segnalazioni questa ricerca.

La linea del tempo..

Citazione superfamosa di Agostino che ha detto, più o meno: «Se non me lo chiedono so che cos’è il tempo. Se me lo chiedono non lo so più». Tempo circolare dell’orologio e delle stagioni, tempo ritmico della musica, tempo lineare della successione dei giorni e degli anni, tempo come quarta dimensione. Tempo senza ritorno del passato, tempo senza certezza del futuro. La pluralità delle durate del tempo sociale.

Il tempo è anche un modo per aggregare i dati e i fatti per conoscerli e immaginarli insieme, con le storie. Forse indispensabile strumento cognitivo. Sintesi di emozione e ragione, notizia e ricostruzione, dato e struttura. Un bell’insieme di suggestioni è qui: il viaggio mentale nel tempo ci rende umani.

Il postumano è umano?

Nella discussione sul post-umano si aggiunge il contributo del numero 361 di Aut-Aut intitolato, in una sorta di gioco di parole, al passaggio dell’attenzione dalla “condizione postmoderna” alla “condizione postumana”. Ne parla Francesco Monico su Doppiozero.

Non occorre riassumere qui. Piuttosto chiosare.

autautPerché uno dei possibili sottotesti è condotto dalla domanda: “il postumano è umano”? Se ci si chiede se una o più entità collettive, incarnate in una costituzione o in una piattaforma digitale, diventino soggetti dell’azione che conta sul destino del pianeta più di quanto non siano le persone, si giunge alla tentazione di immaginare che quelle entità collettive evolvano per via robotica, neuroscientifica e biomedica incidendo sul destino della specie umana fino a fondare una sorta di nuovo “dna” di una specie postumana. Si tratta di entità generate dall’azione umana che però la superano abolendo ciò che c’era di umano nell’uomo? Oppure è semplicemente così che è la specie umana?

Il mito della singularity ha reso molto di moda la premessa di quella domanda. Ma non risponde.

Certo, un Frankenstein come la finanza è lì a dimostrare che un’entità collettiva è davvero in grado di governare il destino del pianeta senza che nessun singolo individuo la possa imbrigliare con le sue scelte: nessuna azione individuale sembra ormai in grado di incidere sulla logica, il funzionamento, le conseguenze della finanza. Soltanto un’altra logica collettiva, costituzionale per esempio, può servire a mettere limiti alla finanza. Sarebbe la premessa di un pensiero capace di avvalorare non per via mitica ma per via fattuale l’idea del postumano. Ma anche questo non risponde alla domanda.

In realtà, la condizione umana sembra proprio essere data dalla capacità di evolvere più di altre specie per via culturale. L’informazione neuronale sembra collaborare con l’informazione genetica nella costruzione della specie e della sua evoluzione. Ma più che nel campo della scienza, qui siamo nel campo della filosofia. O addirittura della fantasia. Del resto, questi “campi” stanno convergendo.

Transdiegetico: lezione di Luciano Floridi a Nexa e Scudo

Luciano Floridi ha tenuto ieri una lezione a Nexa e Scudo, Politecnico di Torino, con il titolo: “Transdiegetic information: what it is and why it matters”. E ha fatto emergere una parola meravigliosa che viene dalla cultura del cinema e dei videogiochi. La parola “diegetico”.

A quanto pare in un film la musica che viene ascoltata dagli spettatori e dai personaggi è “diegetica”. Quando la musica non interferisce con l’azione e viene ascoltata solo dagli spettatori è “non diegetica”. Tipo: John Wayne cavalca nel deserto dell’Arizona mentre gli spettatori sono caricati di attenzione da una bella musica che segnala qualcosa che sta per succedere (non diegetico o extradiegetico); John Wayne cavalca nel deserto e si trova nei guai ma stanno arrivando le giubbe blu e suonano la carica con la tromba sicché anche John Wayne si sente sollevato (diegetico o intradiegetico), vedi Treccani. La diegesi è una disciplina nata dalla scuola aristotelica dell’analisi del racconto e mi pare un soggetto stupendo.

Floridi ha trovato un punto di vista straordinario per qualificare l’evoluzione dell’informazione nel mondo contemporaneo nel quale l’informazione è diventata un tema strategico e, come il filosofo scrive, vitale. Si è domandato se l’informazione riguardi il contesto o l’azione della vita umana conteporanea e suggerisce che sta creando una situazione in cui l’informazione è transdiegetica, concetto nuovo e sul quale c’è un mondo di riflessioni da sviluppare: “Data is one of the few resources that is not only renewable and repurposable, it is also expandable and pervasive. As a result, we increasingly live in a world of information (infosphere). Borrowing some technical vocabulary from film studies and game design, in this lecture I shall argue that new Information and Communication Technologies are breaking the boundaries between diegetic and non-diegetic information, in favour of a transdiegetisation of the infosphere. The talk does not presuppose any previous knowledge and all technical concepts will be clearly and simply explained during the lecture.”

Vedi:
Philosophy of information

ps. sto recuperando perché ieri purtroppo ho perso questa lezione che come tutti mi hanno detto è stata fantastica

Chiose alla frontiera dell’istruzione informale

Un precedente post dedicato alla progettazione dell’istruzione informale è stato commentato in modo profondamente istruttivo: grazie a Marco, Maurizio, Piero, Annamaria, Paolo, Alessandro. Ci torniamo e rilanciamo, a partire da questo vecchio ma interessante dato di fatto (via Leonardo Tosi di Indire):

tab_educazione_informale

In pratica, impariamo la maggior parte di ciò che sappiamo in modo informale, anche se spendiamo la maggior parte di quello che ci costa l’educazione in attività di istruzione formale. Ci sono delle differenze da tener presente nelle diverse dimensioni dell’apprendimento: addestramento, istruzione, educazione.

Alcune tendenze favoriscono un’ulteriore accelerazione di questo fenomeno nell’addestramento. Basta pensare al fatto che gli strumenti più complessi che usiamo più spesso – come il cellulare – sono progettati in modo da non obbligare agli utenti a leggere un manuale. L’interfaccia è organizzata in modo da guidare l’utente. Quello che non capiamo direttamente lo chiediamo agli amici. Alcuni strumenti complessi quindi concentrano il contenuto educativo nella progettazione e ne liberano la fruizione.

Questo può accelerare l’adozione dell’utilizzo e contemporaneamente aumentare l’analfabetismo tecnico generando una genia di utenti troppo guidati dallo strumento e da chi lo progetta. La capacità di valutazione e confronto dei diversi strumenti viene meno se si sanno usare solo gli strumenti che hanno un’interfaccia facilitante. L’istruzione alla partecipazione attiva sui linguaggi che generano gli strumenti è fondamentale per coltivare una visione critica e favorire il confronto tra le soluzioni diverse: d’altra parte l’istruzione non si limita alla lettura ma insegna anche alla scrittura.

L’educazione è a sua volta un motore della dinamica culturale che non può più essere concepita se non in relazione all’innovazione.

Si arriva a comprendere che la progettazione di soluzioni per guidare e rigenerare l’educazione informale equivale alla progettazione di:
1. metodi per l’espressione dei contenuti educativi formali allo scopo di aggiungere la trasmissione informale di passione e interesse per le materie
2. piattaforme per lo scambio di conoscenze tra pari che garantiscano la gradevolezza dell’esperienza e l’efficacia informativa delle attività
3. percorsi per l’accesso a esperienze necessarie all’apprendimento di materie non codificabili in modo formale

L’educazione informale non si fa col manuale, per definizione. Ma si fa pensando alle strutture nelle quali si fanno esperienze di valore culturale. Ogni passaggio della vita ha un valore educativo informale, in fondo. E c’è una responsabilità educativa nei progettisti. Ma, senza andare tanto per le generali, queste considerazioni possono condurre ad architettare nuove strutture dell’istruzione che valorizzino lo scambio informale di conoscenze per cambiare i connotati della tabella mostrata in alto.

Vedi anche:
Modesto contributo per una visione di lungo termine nel sistema “scuola, università, ricerca”

Cultura è innovazione

Cultura è innovazione. È probabilmente la questione decisiva per lo sviluppo italiano. Del resto, l’incrocio dei due temi è straordinariamente generativo.

Ci sono centinaia di definizioni del concetto di cultura e forse ancora di più del concetto di innovazione. Ma cercando gli incroci vengono in mente tre dimensioni:
1. Cultura/natura: cultura come caratteristica essenziale dell’evoluzione della specie umana, che si adatta ovviamente per via genetica sulla scala dei milioni di anni, ma si adatta per via culturale sulla scala dei secoli o dei decenni dell’innovazione. E l’adattamento del cervello, mentre la specie umana supera i 7 miliardi e si avvia ai 9 miliardi, accelera con le protesi digitali nelle funzioni dell’elaborazione, della memorizzazione e della connessione. Forse con la conseguenza di accelerare grazie alla scienza possibile con le tecnologie digitali anche dal punto di vista genetico.
2. Cultura/antropologia: cultura come insieme dei punti di riferimento che uniscono un gruppo piccolo o grande, dotato di una sorta di identità; archetipi; miti; storie; riti e mezzi dell’informazione; strutture e ambienti della relazione sociale. Beni comuni e organizzazione della loro manutenzione. L’adattamento accelera con i media digitali nella progettazione e utilizzo di tutti questi strumenti della costruzione di punti di riferimento.
3. Cultura/industria: la cultura come insieme di industrie culturali, che supera l’ormai ovvia dimensione del cinema e della tv, dei giochi o della musica, dei musei o delle biblioteche, per allargarsi alle diverse fonti di generazione di valore, monetario e non. Open source e copyright evolvono a loro volta con i nuovi modelli di business. Il digitale è un ambiente di innovazione accelerata nelle industrie della cultura.

Tutto questo è premessa di sviluppo. Perché il contesto italiano è quello dell’economia della conoscenza. Nella quale il valore si concentra sull’immateriale: ricerca, design, informazione, immagine, narrazione, senso… E tutto questo ha bisogno di investimenti fondamentali in educazione. La nuova educazione. Quella che sa che la scuola prepara persone a vivere in un mondo imprevisto. Che sa che la formazione è continua per tutta la vita. Che conosce il potere formativo delle strutture mediatiche, delle interfacce, delle metafore che presentano gli ambienti dell’interazione. Con logiche consapevoli della dinamica del gioco e dell’impegno per il miglioramento continuo. E dunque in piena innovazione.

Vedere l’educazione come investimento impone uno sguardo di lungo termine. La consapevolezza che ne consegue, in termini di qualità, impone un approccio alla sostenibilità: cioè al lungo termine. Sicché la cultura e l’innovazione sono soggette, tra l’altro, a una dinamica che potremmo chiamare ecologia dei media. Nella quale l’inquinamento è un rischio gigantesco e la ricerca della qualità è un obiettivo fondamentale.

locandina-perugiaPerché alla fine la sintesi dello sviluppo italiano è nella pacificazione del rapporto tra tradizione e innovazione. Una pacificazione generativa che passa dall’idea che la tradizione non sia fare le cose come si sono sempre fatte: la tradizione è una sorgente di conoscenza per una società orientata a fare le cose bene. E fare le cose bene, sulla scorta della tradizione, significa saperle fare con i mezzi contemporanei. Che consentono di farle bene e meglio. Cioè farle bene oggi. Nel contesto attuale.

Cultura è innovazione perché l’evoluzione culturale è il motore dell’innovazione e perché non c’è un passaggio di questo ragionamento in cui non ci sia un’occasione per incrociare la propulsione della tecnologia con la ricerca di senso.

Se n’è parlato all’università di Perugia con Gianluca Vinti, Alfredo Milani, Osvaldo Gervasi, Michele Bilancia, Nicola Mariuccini e Bruno Bracalente.

La misurazione come narrazione. La scuola nella stretta tra modernizzazione e perdita di senso

Un’intervista (via @demartin) a Giorgio Israel sulla valutazione a scuola va letta.

E.A: Gli insegnanti di scuola sono alle prese con due spinte contrastanti: da un lato si richiede loro di rendere misurabili, oggettivabili e dunque valutabili gli apprendimenti, dall’altro gli si richiede di tener conto nella prassi didattica, e dunque anche in sede valutativa, di tutte le soggettività e individualità presenti nella classe. Si direbbe che a scuola esiste una cultura dello standard oggettivo che convive con una cultura della soggettività discrezionale.

G. I: Il modo stesso in cui è posta la questione indica l’equivoco – diciamo pure il patente errore epistemologico – che, malauguramente. è stato reso senso comune in questi anni: la valutazione esiste soltanto se gli apprendimenti sono misurabili e oggettivabili. Ma i giudizi aventi carattere oggettivo – il che significa che s’impongono in modo indiscutibile al di là di qualsiasi dissenso, come 2 + 2 = 4 – sono pochi e sono possibili soltanto entro una parte limitata delle scienze cosiddette “esatte” e in un complesso di constatazioni empiriche elementari. Il resto è affidato a valutazioni con una componente soggettiva che possono aspirare, attraverso il confronto di opinioni, a un grado quanto più possibile elevato di consenso (insisto su questa idea: grado quanto più possibile elevato di consenso). Le grandezze misurabili sono in numero molto limitato. Si può parlare di misurabilità soltanto quando è possibile definire in modo univoco (anche soltanto operativo) un’unità di misura. Altrimenti, parlare di misurabilità è una presa in giro: neppure la temperatura era una grandezza misurabile, nell’epoca dei termometri e prima dell’introduzione del concetto di zero assoluto in termodinamica. Quando venne introdotto il concetto che ancor oggi ha un ruolo chiave nella rappresentazione matematica delle scelte soggettive, e cioè il concetto di utilità (e di funzione di utilità), il fondatore dell’economia matematica moderna Léon Walras fu costretto ad ammettere che non si trattava di una grandezza misurabile, dicendo che se l’economia matematica non poteva essere concepita come una scienza fisico-matematica si poteva tentare di pensarla come una scienza psichico-matematica in cui la matematica consentiva rappresentazioni quantitative generali dei processi economici senza aspirare a misurazioni concrete.

L’intervista prosegue offrendo informazioni di grande valore. Trascrivo alcuni appunti preliminari a un commento che, sebbene appaia urgente, è ancora immaturo. La misurabilità, a scuola come in economia, ha l’effetto di un frame narrativo che consente una comprensione della realtà, ma come ogni frame ne esclude una parte. Di conseguenza, la concentrazione sulle realtà misurabili genera una realtà percepita nella quale si prendono decisioni semplificate o addirittura banalizzanti. Non per questo è un disvalore assoluto. Il problema è quello di trattarla per quello che è, non per quello che non è. Ci sono alcuni caratteri della misurabilità di cui essere consapevoli:
1. consente di stabilire un terreno comune di valutazione, ma deresponsabilizza i singoli in funzione di un contesto narrativo accettato acriticamente
2. consente di prendere decisioni dotate di un certo consenso, ma apre la strada alla tipica frustrazione di chi vede che la realtà percepita si allontana dall’esperienza umana, generando aspettative che non corripondono ai risultati
3. rischia di concentrare l’attenzione intorno alla discussione sul metodo e di sottrarla alla pratica dell’apertura mentale necessaria alla scoperta di nuovi elementi di realtà.

Abbiamo bisogno di misurare i fenomeni. Ma dobbiamo ricordare in ogni passaggio i termini della semplificazione che per misurare ci imponiamo. Per poter scegliere di agire in funzione non di una percezione della realtà ma di un approccio alla realtà da ricercatori a mente aperta.

La metodologia della valutazione qualitativa va indagata con altrettanta energia di quella che si dedica alla metodologia della valutazione quantitativa. Con lo stesso scopo di arrivare a informazioni sulle quali esista un certo consenso epistemologico. Per poter decidere insieme in modo efficace. Ma senza escludere una parte della realtà che non è misurabile, senza fingere che tutto sia misurabile, senza limitare l’evoluzione intellettuale al rapporto tra le realtà misurabili e le teorie interpretative.

Anche perché, con i Big Data sta emergendo una nuova attività di ricerca. Si tratta di dati che non corrispondono a misurazioni ma a comportamenti, trattati non con modelli deduttivi ma con approccio induttivo: la ricerca di pattern per via empirica funziona solo se si mantiene la mente aperta alla rivelazione di “cigni neri” imprevisti dalla teoria precedente. Si riconosce quello che si è preparati a riconoscere: quindi occorre praticare un intenso allenamento per mantenere la mente aperta alla scoperta. Imho.

Modesto contributo per una visione di lungo termine nel sistema “scuola, università, ricerca”

Stefania Giannini, ieri, alla presentazione italiana di Horizon 2020, ha detto che il suo scopo è portare il Miur a pensare per il lungo termine. È un’affermazione di grande importanza: fondamentalmente generosa, visto che significa lavorare probabilmente anche per il prossimo ministro; particolarmente ambiziosa, visto che significa lavorare sulle strutture più importanti del sistema del quale, attualmente, ha la responsabilità.

Il Miur si occupa di scuola, università, ricerca e innovazione. Difficile pensare a qualcosa di più importante.

Pensare alla lunga durata significa pensare a questioni relative a questi argomenti:
1. Visione
2. Metodo
3. Metafora
4. Interfaccia
5. Infrastruttura
6. Macchina organizzativa

Faccio qualche esempio di che cosa significa pensare a questi argomenti di lunga durata. Sapendo quando poco io sia qualificato per parlarne. Sono condotto solo dalla passione per un’impostazione che finalmente si orienta alla strategia e alla lunga durata. Per condividere l’impressione della grandezza dell’argomento.

1. Visione

Il tema della visione è chiaramente legato all’idea di società e di cittadinanza che immaginiamo stia evolvendo nell’epoca contemporanea. Una bambina che si iscriva alla prima elementare quest’anno arriverà a lavorare, se tutto va bene e riceve un’educazione relativamente completa, nel 2032. Non abbiamo un’idea di che mondo del lavoro si troverà di fronte.

Sappiamo che non smetterà mai di imparare. Sappiamo che il valore che saprà generare dipenderà da quanto potrà trasformare quello che impara in qualcosa che esprime le sue fondamentali capacità. Sappiamo che non esiste una formula buona per tutti: sappiamo che dovrà avere basi di conoscenze, punti di riferimento, informazioni, atteggiamenti necessari a facilitarne l’adattamento al contesto in cui si troverà. E di certo dovremmo sapere di più.

La scuola serve a fare in modo che la società sia una società che impara e si adatta velocemente al cambiamento. Serve a fare in modo che gli individui che la compongano siano capaci di convivere in modo tale che la loro contribuzione personale possa essere valorizzata dall’insieme e nello stesso tempo possa contribuire a valorizzare l’insieme.

In effetti, non sappiamo molto. Salvo che quel poco che sappiamo ci dice che la scuola attuale non ha moltissimo a che fare con la visione di cui stiamo parlando. Quindi occorre una grandissima innovazione. Quindi occorre ricerca. Quindi occorre una relazione molto più profonda tra l’università e la scuola. E tra il mondo del lavoro e i sistemi di apprendimento. Formali e informali.

La relazione tra scuola, università, ricerca va innovata. Stiamo parlando di sistemi diversi ma connessi profondamente. Possono diventarlo se si pongono insieme a confronto con le grandi sfide della società. È un po’ il messaggio di Horizon 2020. C’è una saggezza nei principi del nuovo programma quadro dell’Unione Europea. Che va declinata e applicata. La leadership del sistema Miur ha la responsabilità di questa declinazione e applicazione. È una visione importante: ed è una visione urgente.

2. Metodo

L’approccio alla conoscenza che serve per ottenere una società che si adatta meglio al cambiamento, nel quale il contributo dei cittadini all’insieme è valorizzato e contemporaneamente valorizza il carattere della società, ha bisogno di un rapporto di rispetto nei confronti della conoscenza. E data la visione che si è appena accennata, questo significa che il metodo fondamentale dell’insegnamento può tendere ad assomigliare al metodo fondamentale della ricerca: teoria, ipotesi, verifica; rispetto dei fatti; accettazione dell’errore; sperimentazione; mutua condivizione delle esperienze; costruzione della nuova conoscenza e diffusione dei suoi risultati come precondizione della ulteriore costruzione di conoscenza; apertura dell’accesso alla ricerca e didattica dell’espasione della ricerca. Imparare a imparare.

Condivisione delle nozioni basilari insieme alle fonti inesauribili di ispirazione: i linguaggi, dalla letteratura alla matematica e all’informatica; i contesti, dalla storia alla geografia; le frontiere, dalla scienza all’arte; le pratiche, dall’economia alla cura del corpo e alla produzione di beni; le regole della convivenza civica; e così via. Nello stesso tempo la sperimentazione personale con le nozioni acquisite, per favorire l’espressione individuale, la capacità di confronto e discussione costruttiva, la prova e l’errore e il risultato positivo. E infine, l’esperienza che insegna in modo informale ma denso di significato, in relazione con i protagonisti della società, dell’economia, della cultura, per accedere alle dinamiche evolutive reali. E per restituire al sapere di chi vive nelle dimensioni attive della contemporaneità il valore di materia di apprendimento di pari dignità di quella che è canonicamente contenuta nei manuali.

3. Metafora

Per descrivere un insieme complesso e poterlo trattare in modo efficiente in rapporto ai suoi obiettivi, occorre una metafora. A che cosa assomiglia l’insieme di scuola, università e ricerca? Scuola, università, ricerca, intese come dimensioni diverse di un’unica filiera della conoscenza generativa, orientata alla crescita e all’accelerazione dell’adattamento della società alle sfide contemporanee, possono essere descritte con una metafora nuova? Una metafora che spieghi ciò che la visione cerca di dipingere e il metodo per raggiungerla? Il sistema della generazione e diffusione di conoscenza, per la crescita delle idee e la loro sperimentazione, insomma il sistema che chiamiamo educazione può essere raccontato con la metafora di un incubatore? Forse.

Se la scuola fosse un grande incubatore di soluzioni per la diffusione di nozioni fondamentali, di idee creative, di progetti culturali, di metodi innovativi per l’apprendimento e per la connessione della conoscenza con la società e l’economia, potrebbe presentarsi come un’organizzazione adatta a gestire il cambiamento invece che subirlo. Una metafora non è mai precisa, ovviamente. Ma può indirizzare l’attenzione verso pensieri costruttivi.

4. Interfaccia

L’interfaccia del sistema è un ambiente formato di scuole, sedi universitarie, centri di ricerca e internet. La dimensione digitale è parte integrante del sistema, che lo si voglia o no. I giovani vivono in un ambiente digitalizzato. Se la scuola vuole restarne fuori si taglia le gambe da sola.

Per riprogettare un’organizzazione si può partire dal sistema produttivo o dallo scopo che si vuole raggiungere.

Pensare l’interfaccia significa partire dall’obiettivo. E l’obiettivo è servire al meglio la società e coloro che devono apprendere.

Allora l’interfaccia deve creare una considizione in cui sia facile usare la scuola, l’università e la ricerca. Venga voglia di farlo. Sia piacevole e interessante, mentre allo stesso tempo è importante. Riprogettare la scuola a partire dall’interfaccia non è incoerente con l’idea della scuola incubatore: perché sappiamo che quello che conta è la didattica e ciò che viene insegnato, il modo e la passione che gli insegnanti adottano per insegnare. Questo è ciò che conta. Un’interfaccia che valorizzi questi insegnanti e il loro rapporto con i discenti rende i loro sforzi ancora più importanti.

5. Infrastruttura

La rete di relazioni tra gli studenti, gli insegnanti, i ricercatori, le aziende e le organizzazioni sociali è un’infrastruttura che va pensata. Perché potenzialmente è il più grande laboratorio di apprendimento del paese, con tutta la gente che coinvolge. Se si pensa a Big data e Open data, la scuola ne è potenzialmente un generatore fantastico. Se si pensa a come la conoscenza sui comportamenti e le esigenze di nove-dieci milioni possono essere studiati in modo da garantire la privacy ma alimentare l’efficienza del sistema si può immaginare l’inizio di una grande stagione di grandi progetti: un’infrastruttura come questa potrebbe liberarsi dal peso delle infrastrutture private e internazionali per generare le condizioni di partenza di un’infrastruttura di rete davvero orientata al bene comune? Questo non potrebbe essere un grande progetto di ricerca che diventa insegnamento e viceversa? La condivisione di conoscenze che avverrebbe su un’infrastruttura del genere, standard e interoperabile, aperta e garante della privacy, non potrebbe diventare la premessa della reinvenzione degli strumenti didattici?

Viene voglia di pensare di sì. Viene voglia di sperare di sì.

6. Macchina organizzativa

Una macchina che riguarda quasi dieci milioni di persone, più le famiglie. Una macchina nella quale quasi mezzo milione è composto da persone che si definirebbero precari. Una macchina nella quale i risultati educativi sono profondamente diversi tra città e città, tra zone urbane e rurali. Una macchina nella quale alcuni insegnanti e dirigenti particolarmente illuminati hanno reso un grande servizio ai giovani fortunati che hanno frequentato le loro scuole. Chi fa il ritmo della macchina nel suo complesso? Dai problemi più gravi o dai battistrada?

È chiaro che il centro, il governo, deve dare un framework visionario e metodologico, garantire standard e interoperabilità per il riuso delle soluzioni. Ma in una macchina che va alla velocità definita da chi ha paura di perdere il poco che ha conquistato o che è indifferente al cambiamento perché ha speso la vita a contribuire senza essere riconosciuto o di chi non riesce ad accedere a un sistema che promette garanzie, una macchina che va alla velocità della conservazione non coglie le opportunità. La leadership centrale, in questo caso, deve dare il ritmo all’insieme.

Credo che ci siano pochi mestieri altrettanto difficili. E credo che si possa e debba rispettare qualunque impegno sincero orientato a portare una macchina così complessa nella direzione di darsi un ritmo strategico di innovazione adatto a costuire un futuro decente. Ma se l’azione riuscisse, non sarebbe un risultato importante: sarebbe il risultato più importante per tracciare una prospettiva in una società che ne ha disperato bisogno.

Ognuno dei sei capitoli citati meriterebbe un lavoro vero di analisi. E molti grandi esperti lo stanno conducendo. Mi scuso per la superficialità di queste righe. Servono, se servono, solo a mettere in fila i problemi di un lavoro di riflessione-azione sempre più necessario se si vuole guardare, come è necessario, al lungo periodo.

What if.. Naval Ravikant e il Quinto Protocollo

Un pezzo visionario di Naval Ravikant, co-fondatore di Venture Hacks e AngelList. Persino troppo visionario.

Naval porta alle estreme conseguenze il bitcoin. Il pezzo è intitolato tanto intelligentemente da indurre anche il lettore poco tecnico a superare i suoi timori per addentrarsi in una ricerca che sarebbe adatta a un libro di Dan Brown. Il quinto protocollo è un titolo evocativo di rara accortezza.

Naval non ci mette molto a svelare i primi quattro protocolli:

The Four Layers of the Internet Protocol Suite are constantly communicating. The Link Layer puts packets on a wire. The Internet Layer routes them across networks. The Transport Layer persists communication across a given conversation. And the Application Layer delivers entire documents and applications.

Il quinto emerge dalla visione di un protocollo internettesco che riesce in modo peer-to-peer a stabilire i rapporti di valore tra i pacchetti che viaggiano in rete. Nasce dall’esperienza del bitcoin ma si generalizza e trasforma fondendosi nel traffico online e aggiungendo una dimensione. I pacchetti con i loro attributi per applicazioni, servizi, link, indirizzamenti si confrontano tra loro per garantire identità, sicurezza, priorità, secondo logiche trasparenti di confronto-collaborazione peer-to-peer. Qui è meglio leggere l’originale.

È certamente un’idea visionaria. Pure troppo. La supposizione di una logica paritaria salva la netneutrality ma consente l’efficientamento del traffico, il che in una visione si può dare come possibile. Ma dal punto pragmatico apre scenari problematici che andranno affrontati.

I bit sono stati creati uguali. Il loro valore nei diversi contesti è diverso. Non si può dare loro una misura di valore assoluto. E poiché non esiste autorità centrale a priori, non si può dare neppure una misura di valore relativo a un punto di riferimento accettato da tutti. Questo salva la logica internettiana. In teoria. Ma in pratica si osserva che anche nel bitcoin le autorità rischiano di emergere per via tecnologica: chi ha computer più potenti può concentrare più ricchezza. Diventando autorità di fatto capace di forti conseguenze sul sistema.

La soluzione sarebbe la moneta che non si accumula, come il Sardex. Ma sarà questa la via prescelta?

Il bitcoin è ancora anche una merce accumulabile. Questo ne mina alcune qualità che sarebbero necessarie nella visione di Naval, imho.

Don’t panic. Preparandosi a un convegno sui modelli familiari vale la pena di guardare questo video

Devo preparare un contributo di venti minuti sui modelli familiari emergenti. Già. A quanto pare, all’incrocio tra un passato di storico della famiglia e un presente di giornalista dell’innovazione si può trovare anche un compito tanto arduo.

È chiaro che l’evoluzione demografica mondiale è definita dalla trasformazione dei modelli di famiglia e che quelli che stiamo sperimentando oggi generano la demografia del prossimo secolo. Siamo arrivati al picco-bambini (gli umani tra 0-15 anni sono due miliardi da dieci anni e non crescono più). Ma le piattaforme che servono la relazione tra le persone hanno forse una conseguenza su questi modelli? Se sì, influenzerebbero le dinamiche più profonde e di lunga durata dell’evoluzione umana.

Hans Rosling intanto spiega la situazione globale così (da non perdere):

Nava Swersky Sofer a Cesena

Nava Swersky Sofer è a Cesena per il Web economy festival. Appunti.

Israele ha prodotto innovazioni molto popolari. Una quantità di nuove tecnologie che oggi usiamo quotidiane. Per esempio Waze, socially based navigation app, acquisita da Google per un miliardo di dollari. Una spesa oltre 4% in ricerca sul Pil (Italia intorno all’1%). Un venture capital in proporzione superiore a quello americano. Ogni anno nascono 600 startup innovative. Vengono acquisite da grandi aziende che incorporano nella loro oggerta le tecnologie sviluppate e spesso tengono in Israele i team come centro di ricerca. Il mercato di prodotti venduti con una licenza israeliana vale 22 miliardi di dollari all’anno.

Israele è grande come la Sardegna, isolata, senza risorse naturali. Ha ottime università, lavoriamo in modo interdisciplinare, non abbiamo modi tradizionali per fare le cose.

Abbiamo un esercito forte e che chiede innovazione. Abbiamo gente disciplinata che passa più anni nell’esercito. Una visione internazionale è parte integrante della steuttura sociale. Brain power. In crescita demografica. Dobbiamo costruire schemi funzionanti per creare posti di lavoro.

Gli incubatori sono nati come modo per creare lavoro. Se hai limoni, fai una limonata.

Il sistema del technology transfer è fatto come business non come funzione burocratica. Ci sono leader aziendali nei board. Il Chief Scientist coordina la relazione tra accademia e industria.

Nanotechnology genera oggi 830 collaborazioni tra università e aziende, 206 startup e 1.500 articoli scientifici come risultato.

Ricetta per l’innovazione: infrastruttura, ambiente, cultura. Fattori basilari: educazione, ricerca, funding e management; regulation, tax, market access, investimenti; la cultura si fa accettando che le cose si fanno in un modo nuovo, con imprenditorialità, accettando il fallimento.

Le università prendono una quota molto grande del valore della licenza dei prodotti (40% ai ricercatori, 20% all’università, 40% alle aziende è una soluzione molto diffusa). Continuare il flow di relazioni tra accademia e aziende. Con incentivi molto chiari e grossi.

Si lavora in inglese. Le aziende nascono globali in Israele. E si pensano sul mercato internazionale.

Michalis Vafopoulos a Cesena

Michalis Vafopoulos è a Cesena per il Web economy festival. Appunti.

Il web è diffuso, contrastato, contraddittorio: va conosciuto. È come una strada. È un’infrastruttura di base. Nella quale viaggiano bit di informazione. Che influenzano la conoscenza. Web ha cominciato come collegamento di siti (1.0), è diventato connessione di persone (2.0), ora diventa rete di dati (3.0).

Il web 2.5 è mobile, non solo content ma anche context, low cost. Cloud non device. Con nativi, immigrati, mediatori.

Come vivere in questa complessità? Intelligenze multiple, Howard Gardner. Più altro probabilmente.

Web goods traggono valore dalla digitalizzazione e connessione. Il traffico genera flussi di valore che si autoalimentano. Le caratteristiche sono attività dei consumatori, la personalizzazione dei servizi. Con peer production: incentivata non solo da
reddito e proprietà ma anche come
arricchimento dei commons. Musopen. Multisided platforms: combinazione di network effect.

Che succede se si applicano queste novità a web 3.0? Bidirectional and massivrly processable data. Ogni dato è riutilizzabile. Open data: accesso, scala, publish once use many times. Miliardi di euro spesi in gestione di dati. È sempre infrastruttura.

Come si crea valore? Remixing machine processable context. Trasparenza, open government e rottamazione dei walled garden.

Che fare? Che deve fare lo stato? Creare un framework publico: con infrastruttura, educazione, pratiche.

Ancora su: “Abbiamo cambiato l’Italia mettendo Dallas in televisione”

Ieri, parlando della crisi attuale e della prospettiva che abbiamo bisogno di raccontarci per uscirne, Mauro Magatti (autore con Laura Gherardi di “Una nuova prosperità“) ha sottolineato come con il 2008 si sia chiusa una fase storica ventennale. Certo, la datazione dell’epoca iperliberista guidata dal capitalismo tecno-nichilista appartiene a chi ha pensato il concetto. Non ne cambia molto il senso tentare di aggiungere qualche considerazione in più, che peraltro allunga la durata di quell’epoca aiutando forse a pensarla nella sua interezza. Proprio per definirne la fine.

Ovviamente il 1989 è stato uno spartiacque straordinario, con la caduta del Muro di Berlino e l’avvio del decennio trionfale del capitalismo finanziario. In quest’ottica, però, la chiusura del ciclo avviene nel 2001 che ha segnato la fine del “nuovo ordine mondiale” centrato sugli Stati Uniti. Se la dimensione che ci interessa per datare l’iperliberismo è piuttosto quella simbolico-culturale, verrebbe da dire che l’avvio dell’epoca iperliberista è precedente e la sua fine è successiva. Il suo avvio sarebbe nell’avvento di Margaret Thatcher in Gran Bretagna e di Ronald Reagan negli Stati Uniti. E la sua fine nel 2008-2010 quando, in America prima e in Europa poi, l’attrattiva del pensiero iperliberista entra in crisi insieme alla credibilità del sistema finanziario. L’epoca che dobbiamo imparare a pensare, dunque, sarebbe lunga trent’anni. E imparare a pensare che è finita, quell’epoca, si aiuta a cercare una nuova prospettiva.

Per l’Italia, l’avvio simbolico del trentennio iperliberista potrebbe essere stato non politico ma televisivo. E’ un’immagine che è venuta in mente al leader della destra, attuale rifondatore di Forza Italia, che nel 1989 era soltanto il magnate della tv privata. E che in un’intervista di quell’anno disse: “Abbiamo cambiato l’Italia mettendo Dallas in televisione”. Era il 1981 quando quella telenovela texana è andata in onda in Italia, proprio gli anni fondativi dell’epoca avviata con l’ideologia allora vincente di Thatcher e Reagan. E Dallas era coerente: i ricchi – che in un paese catto-comunista apparivano spietati e senza scrupoli – diventavano gli eroi se si ammetteva che il contesto culturale da adottare era definito da regole fatte per consentire la prevalenza del più forte nella convinzione implicita che in questo modo si generano soldi a palate. Il successo di quella serie televisiva fu segnato dall’adesione ideologica di numerose famiglie che in quegli anni chiamarono jeiar e suellen i loro figli e figlie (fatti registrati dai giornali di allora con un bel po’ di sopravvalutazione). Una frattura ideologica fondamentale, accompagnata dal contesto internazionale e sostenuta in Italia dalla diffusione della regina dei media del trentennio che si è concluso.

Si è concluso nel mondo perché ormai non è più un presidente degli Stati Uniti o un premier britannico a dare il tono ideologico al pianeta. La Cina conta almeno altrettanto. Russia, Brasile, India, mondo islamico, sono poli culturali e simbolici che generano visioni del mondo di potenza rilevantissima.

Si è concluso perché la finanza non è più credibile. Anche se resta enormemente potente.

Si è concluso perché per uscire dalla crisi nella quale l’indebitamento al quale la finanza ha costretto il mondo occidentale non c’è altra strada che ridefinire il percorso verso la prosperità. Imparando a intendere la prosperità in modo nuovo. Come suggeriscono Magatti e Gherardi.

Si esce cominciando a guardare avanti. Come suggerisce il suffisso pro- delle parole chiave con le quali si può guardare avanti: prosperità, prospettiva, progresso, progetto, programma. Ma a queste parole occorre dedicare un post specifico.

Una chiosa. Si è discusso anche ieri in rete di quell’intervista, in uno scambio di battute su Twitter. Un’intervista di venticinque anni fa, senza più appunti che ne attestino i contenuti, si può ricordare a memoria. E per un giornalista che era presente diventa importante precisare. La frase “abbiamo cambiato l’Italia mettendo Dallas in televisione” è stata detta senza dubbio. Un’altra frase in quel contesto è stata: “Il Maurizio Costanzo Show è il circolo illuminista del nostro secolo”. Molte parole sono state spese per parlare dello speciale modello pubblicitario inaugurato dalla Publitalia. Non si è parlato per quanto ricordo di Drive In.

Altra chiosa. In questo secolo la televisione non cambia più il mondo. La fine del Grande Fratello in Uk è forse il fatto più evidente. Internet è certamente una sorgente di innovazione più importante oggi. Ma la tv è ancora un’enorme generatore di immaginario. E può darsi che l’apertura di un nuovo periodo sia stata segnata dall’aver messo in televisione Don Matteo.

Vedi anche
Il racconto della prospettiva
Dallas non era un progetto, dice
L’estetica protestataria e lo spettro del capitalismo

Pierre Lévy e Alain Finkielkraut: intelligence collective

In una playlist la conversazione tra Pierre Lévy e Alain Finkielkraut sull’intelligenza collettiva caricata su YouTube 4 anni fa… (solo audio..)

Gli intellettuali e l’ecologia dei media

Il dibattito sul destino delle forme di autorità culturale tradizionale viaggia tra due estremi, parrebbe: la critica dello “specialismo baronale o autoreferenziale” e l’orrore per la la “democratizzazione del sapere”. I contributi migliori, ovviamente, sono quelli che non si fermano alle posizioni estreme ma argomentano tenendo conto dei fenomeni nel complesso. Giuliano da Empoli ha scritto a proposito del primo punto di vista un libro importante. E Tom Nichols ha scritto recentemente un articolo sul Federalist che vale davvero la pena di leggere a proposito delle conseguenze negative della perdita di credibilità degli esperti. Naturalmente questo ha a che fare con la crisi dei giornali, la crisi dell’università, la crisi della fiducia negli argomenti della scienzamedica, la crisi del dibattito civico in politica e molto altro ancora.

Il problema nasce fondamentalmente dalla crisi di credibilità delle autorità culturali tradizionali, peraltro spesso molto ben meritata. Che d’altra parte non elimina il bisogno diffuso di attribuire fiducia all’opinione di qualcuno che si assuma il ruolo di pensa per gli altri. E dunque avviene che al posto delle autorità tradizionali sorgano al ruolo di generatori di opinioni persone che hanno percorsi si preparazione poco affini alle metodologie tradizionali di selezione dell’autorità culturale. Il loro punto di forza è essenzialmente nella capacità di farsi notare. Ne deriva una generale incertezza e una sfiducia diffusa, quasi un cinismo nei confronti di ogni sapere profondamente coltivato o semplicemente affermato, che rende ogni dibattito difficile da portare in fondo costruttivamente. Ma il punto è che, una volta si siano osservati questi fenomeni, occorre progettare una sorta di risposta. Anche qui il pensiero dell’innovazione è il principale percorso da avviare.

La crisi delle autorità culturali tradizionali, giornali, università, scienziati, è differenziata e non omogenea. La fiducia in alcuni tipi di esperti resiste meglio di altri e nei diversi ceti o gruppi sociali si osservano diverse opinioni in proposito. La credibilità della magistratura o dell’insegnamento scolastico regge in alcuni ambiti della società meglio che in altri. I giornali e i politici sono in ribasso più generalizzato. I finanzieri e i banchieri, in quanto esperti di economia, hanno avuto qualche grosso problema di recente. Gli scienziati sono tutto sommato ancora credibili per chiunque abbia studiato un po’, ma di fronte a dibattiti sulle medicine miracolose non reggono facilmente il confronto delle opinioni di massa più manipolabili.

Non si può dire che non ci siano buoni motivi per queste crisi:

1. La velocità del cambiamento epocale che viviamo svela la scarsa adattabilità di alcuni sistemi di selezione della qualità culturale. L’università baronale orientata più alla gestione delle cordate di carriera che alla generazione di conoscenze di qualità è giustamente messa in crisi dalla velocità culturale dell’epoca internettiana. La tenuta dell’élite culturale è meno forte in un contesto nel quale la rete consente di accedere a qualunque genere di informazione anche approfondita. I giornali non hanno più il monopolio dell’informazione in un contesto nel quale tutti possono contribuire con notizie, commenti e approfondimenti. E così via. La velocità di adattamento al nuovo contesto da parte delle autorità culturali tradizionali è stata troppo lenta per poter reggere al confronto delle soluzioni emergenti. D’altra parte, questo fenomeno lascia dei vuoti devastanti dei quali occorre tener conto.
2. Le forme di finanziamento del lavoro dei professionisti culturali che negli ultimi trent’anni si sono aperte a ogni forma di compromesso intellettuale con i detentori della ricchezza o del potere non hanno giovato alla credibilità di quel genere professionale; gli scienziati della medicina che hanno accettato si sostenere idee che avevano il solo valore di rafforzare la grande industria farmaceutica; gli esperti di economia che hanno accettato supinamente le richieste ideologiche delle grandi organizzazioni della finanza sostenendo nei confronti della politica riforme iperliberiste che si sono rivelate come minimo poco lungimiranti e delle quali paghiamo le conseguenze; i professori universitari che si sono prestati a sostenere le opinioni dei politici più ideologizzati e cinici pur di ottenere qualche vantaggio economico, politico, televisivo; i giornalisti che hanno abbandonato i criteri dell’indipendenza e della completezza per cedere alla tentazione di vivere nei flussi di attenzione generati dai dibattiti meno costruttivi… C’è molto da ammettere per queste categorie: la loro credibilità non era mai stata scontata ma alcuni l’hanno davvero svenduta mettendo a rischio l’insieme.
3. La tecnica della manipolazione delle opinioni nel contesto dei media di massa è stata adottata massicciamente per ridefinire i rapporti di autorità culturale a sfavore della paziente costruzione intellettuale e a favore della mera notorietà degli opinionisti. Insomma: a fare le spese del dissesto ecologico dei media di massa sono stati soprattutto coloro che esprimono conoscenze da argomentare, generate con metodo controllato e orientato all’analisi dei fatti; mentre se ne sono avvantaggiati coloro che erano disponibili a dire qualunque cosa purché in breve tempo, ad alta voce e davanti a audience gigantesche. Ne è uscito un sistema di generazione di idee fondato sul pregiudizio, la brevità sloganistica, la ricerca dell’applauso emotivo. E così via. Un contesto nel quale è stata penalizzata ogni forma di ricerca approfondita. E ha dato potere sulla selezione dell’autorità culturale ai gestori dei media di massa, televisione in testa.

Tutto questo ha messo in crisi l’autorità culturale tradizionale. Non è certo internet la causa del fenomeno. Casomai, internet è stata una via d’uscita contemporaneamente costruttiva e distruttiva. Ha accelerato la crisi. E ha aperto la strada a risposte, in alcuni casi ottime, in altri pessime. Ora è tempo di andare avanti: raccontata la crisi, direbbero gli americani, let’s move on.

L’approccio costruttivo per progettare la prossima struttura della selezione di autorità culturali non può partire dalla lode del passato. Ma dalla visione di un futuro di qualità migliore. Il lavoro intellettuale che serve alla società può essere riprogettato. I filtri all’information overload possono essere ripensati. La formazione profonda può essere riattivata. Ma occorre pensare avanti, non indietro.

Le novità si susseguono, in questa materia strategica per l’economia della conoscenza. Ma selezionare quelle che hanno conseguenze importanti da quelle che sono semplicemente attraenti richiede pensiero, visione e spirito empirico. Dobbiamo costruire.

Come sempre ci sono valori che superano le trasformazioni perché hanno una durata più lunga. Università, giornali, laboratori, centri di analisi economica non sono ancora macerie. Ma se non lo sono ancora è perché contengono un germe culturale fondamentale. Sono i portatori di un metodo. La conoscenza ha bisogno di metodo: ispirazione, visione-teoria, ipotesi-progetto, verifica-sperimentazione; indipendenza, completezza, accuratezza; rispetto dei diritti, spirito di servizio. Questi valori si possono inscrivere nelle nuove piattaforme di gestione e generazione della conoscenza che dobbiamo progettare e realizzare: che molti stanno progettando e realizzando. Ovunque nel mondo. I tentativi sono numerosi. Quelli che andranno in porto sono meno numerosi. Ma il compito è questo: riprogettare le piattaforme della conoscenza, perché su internet lo spazio di innovazione è ancora ampio.

In materia, qui è possibile solo andare per cenni. I temi di azione, per l’ecologia dei media digitali di rete sono molti. La qualità dei filtri. La critica della personalizzazione algoritmica. L’analisi dei big data in chiave commons. Le metafore civiche per la gestione delle discussioni. E così via. Cè abbastanza da lavorare per tutti. Questa è la “democratizzazione” di internet: non tutti i pensieri sono uguali a tutti gli altri; ma tutti i pensieri possono andare a verificare se reggono di fronte alla storia. Parlare di metodo e di conseguenze culturali del metodo, in questo senso, è strategico.