Usa e Uk pensano a tassare correttamente i giganti di internet

La famosa web-tax all’italiana di qualche tempo fa non ha avuto successo: perché era una soluzione sbagliata a un problema giusto. In modi diversi, Usa e Uk stanno pensando allo stesso problema.

In Uk lo schema è quello di combattere i sistemi con i quali si deviano i profitti dal paese che li ha generati al paese che li tassa meno. George Osborne, cancelliere dello Scacchiere britannico, ha proposto una legge per tassare in Uk il valore aggiunto generato dai giganti internet e le società che usano sistemi simili ai loro per ridurre il carico fiscale sfruttando le caratteristiche dell’economia immateriale. I giganti di internet protestano vigorosamente, ma non c’è scandalo nel dibattito britannico. Perché la tecnica proposta è piuttosto sensata.

US multinationals fight UK chancellor George Osborne’s Google tax (Ft)

In Usa, il tentativo è quello di tassare i capitali liquidi accumulati all’estero dai giganti tecnologici e le società che usano sistemi simili per non riportare in America i profitti che generano. Riguarda Apple e Cisco ma non solo.

Cisco reports best revenue growth for 3 years

Evidentemente, quei paesi non sono “nemici del business”. Ma quando si pongono il problema di tassare chi elude troppo esageratamente le tasse, cercano di trovare una tecnica fiscale adeguata. Studiando un po’, forse, anche l’Italia potrebbe riprendere in considerazione il problema, per trovare una soluzione giusta.

Per il background sulla web-tax:
Commento costruttivo sulla raffica di misure relative a internet prese in questi giorni in Italia (con Paolo Barberis)
Dopo la webtax, prima di una soluzione: come gestire gli elusori internazionali?

La copertura mediatica sulla votazione per l’unità d’Italia digitale – #nazzarenostaisereno

L’immagine emersa sui media oggi della discussione alla Camera di ieri in materia di riforma costituzionale è stata concentrata sulle immagini dei deputati che gettano i fogli di carta per terra, che protestano, che litigano. Tutta la lettura dei fatti è andata nel frame “fine del patto del nazzareno”. Eppure ieri è stato il giorno in cui per la prima volta una riforma costituzionale è stata approvata all’unanimità dai deputati. Un fatto straordinario del quale in rete si parla moltissimo e con grande soddisfazione (perché riguarda l’attribuzione allo Stato delle competenze di coordinamento di tutta l’azione digitale pubblica, evitando l’attuale dispersione di azioni tra vari enti locali, vedere il verbale della seduta). Un fatto che contraddice il frame prevalente e che quindi esce un po’ troppo poco sui media.

In questo momento via Google News si vede che ne hanno parlato:
Webnews
DDay
CorCom
Il Sole 24 Ore
Punto Informatico
Webmasterpoint

Sicuramente ne hanno parlato anche altri. Di certo ne hanno parlato molto di più su Twitter, Facebook e blog, a partire da Mante e da questo blog.

La chiosa è questa. Il frame è più importante del fatto. L’immagine interpretativa semplificata del momento politico non può essere messa in discussione da un fatto che la contraddice dipingendo il Parlamento come un’istituzione capace di una sua libertà di dibattito e di un suo potere d’azione politica: in questo caso la politica parlamentare è riuscita a imporre una decisione più creativa di quella che sembrava provenire dalle posizioni dei partiti e del governo. Il frame è una semplificazione. E va bene. Ma quando è una banalizzazione non va bene. Quando oscura i fatti ancora meno.

Anche perché questo fatto ha un’infinità di implicazioni. Se non capisco male, la nuova norma costituzionale concentra sullo Stato il compito di coordinare la strategia e l’azione digitale di tutto il settore pubblico, regioni comprese. Prima si limitava alle questioni relative alla standardizzazione del trattamento dei dati. E’ stata ripresentata da Forza Italia nel momento in cui Stefano Quintarelli di Scelta Civica rinunciava all’emendamento. Ed è stata votata anche dalla Lega (che quindi accetta un emendamento “centralizzatore”). Ed è piaciuta al Movimento 5 Stelle, che l’ha votata convintamente e pragmaticamente, nonostante avesse quella provenienza. E poi il moto parlamentare è riuscito a farsi ascoltare dal Governo, che in quel momento sembrava deciso a tutto pur di non perdere tempo e che invece si è fermato a riflettere. Sicché alla fine anche il Pd ha votato la proposta. La “fine del nazzareno” non ha impedito agli eletti di pensare e decidere bene. All’unanimità. Una scena troppo bella perché non se ne dia conto attentamente sui media. Il che probabilmente avverrà. Sanremo è stata un motivo di distrazione, ma si può ancora rimediare.

Ecco qui il video del dibattito in aula:

Unanimità per l’unità digitale d’Italia. Vittoria costituzionale di Quintarelli e Palmieri

È passato, all’unanimità, un emendamento all’art. 117.r della Costituzione dove si parla della divisione dei poteri tra Stato centrale ed enti locali a proposito del digitale. L’articolo dava competenza esclusiva allo Stato sul “coordinamento informatico dei dati della PA”. Solo dei dati, non dei processi o delle infrastrutture. Il che generava duplicazioni, scarsa interoperabilità e altri errori architetturali.

Stefano Quintarelli e Paolo Coppola hanno presentato un emendamento che semplificava la questione attribuendo allo Stato “il coordinamento informatico della PA”.

Era un emendamento destinato a soffocare nella macchina di approvazione di altre riforme costituzionali. Per la fretta di andare avanti, il governo spinge per eliminare ogni discussione non strettamente necessaria. Coppola deve obbedire. E si giunge alla discussione in aula. Il racconto di Quintarelli è emozionante. Annuncia il ritiro dell’emendamento motivandolo con il suo primo discorso alla Camera. Antonio Palmieri prende la parola e fa suo l’emendamento spiegandone le ragioni e dimostrando che riguarda una modifica davvero essenziale della distribuzione dei poteri. Gli altri gruppi parlamentari lo sostengono. Anche M5S. Addirittura la Lega. Alla fine anche il governo deve dedicare un momento di attenzione alla sostanza dell’emendamento e si accorge che non può non approvarlo. E l’emendamento passa all’unanimità.

Quintarelli ha visto la storia passare davanti ai suoi occhi e ne ha scritto una pagina. Gli altri deputati l’hanno letta al volo e uno dopo l’altro hanno firmato il loro contributo. Il Parlamento ha dimostrato il ruolo che merita. Il governo ha dimostrato che può anche cambiare idea quando è bene che lo faccia. La Costituzione migliora. E l’agenda digitale degli italiani si fa più unitaria. Da leggere il verbale della seduta. In attesa del racconto di Quintarelli cui va un grandissimo applauso!

Uber, Morozov, ecologia dei media e intelligenza plurale

Uber valeva 200 milioni un paio d’anni fa e oggi è valutata 40 miliardi. Essenzialmente costruisce una piattaforma che organizza le relazioni di scambio tra chi offre e chi domanda un servizio di trasporto in città. E raccoglie dati, comportamenti, esigenze. Abilitando soluzioni di mercato. In una metafora pienamente di mercato. Che talvolta entra in rotta di collisione con rendite di posizione, legittimate da lunghe abitudini e investimenti sedimentati nel tempo spesso protetti con regole corporative. La questione dei taxi è il caso più eclatante del fenomeno.

Il mercato in questo senso è una soluzione che abbatte le rendite di posizione, dunque favorisce una ripresa della dinamica innovativa, con conseguenze complesse. Da un lato, l’innovazione punta alla rottamazione (disruptive technologies) delle rendite di posizione che sono protette da regole pensate più per chi offre il servizio e meno per chi ne fruisce, generando una condizione nella quale spesso si possono imporre prezzi alti per servizi di bassa qualità: da questo punto di vista l’innovazione rottamatoria raccoglie una sorta di consenso. Dall’altro punto di vista, una volta che abbia preso piede, una piattaforma che organizza un mercato in modo efficiente diventa a sua volta un intermediario potente. La valutazione di Uber lo dimostra. Anche perché chi investe in Uber sa che la piattaforma vincente gestisce il suo servizio in modo tale da spostare il rischio di mercato su chi offre e chi domanda (il prezzo delle corse varia in funzione della quantità di domanda in rapporto all’offerta) ed evita il più possibile di assumersi rischi di branding spostando la questione della qualità del servizio sul lavoro che gli utenti svolgono valutando i guidatori (le stellette di valutazione dei guidatori sono compito degli utenti). Uber si concentra sulla tecnologia (eccellente), sulla rimozione degli ostacoli legali, sul reclutamento di persone che offrano il servizio (valorizzando part-time asset come la loro automobile e il loro tempo che in assenza di Uber allocherebbero in modo meno efficiente), sull’utilizzo intelligente dei dati.

Il problema di chi guarda alla crescita di Uber pensando alle conseguenze sulla vita cittadina non può essere affrontato unilateralmente. Di certo non si può migliorare la situazione negando il valore di Uber e delle piattaforme analoghe. Ma altrettanto sicuramente questa non è la fine della storia. Una discussione preliminare sulla possibilità di costruire ulteriori piattaforme era stata avviata anche qui tempo fa.

Evgeny Morozov ha scritto per il Guardian un articolo notevole che sviluppa il ragionamento di modo tranchant ma in fondo costruttivo (l’articolo è poi stato tradotto dal Corriere).

Sottolineando soprattutto la chiave di lettura costruttivista, il suggerimento di Morozov si pone dal punto di vista della città. Si può risolvere tutto il tema del trasporto in città affidandosi alla piattaforma di Uber? No. Perché Uber si occupa di mettere in relazione domanda e offerta essenzialmente di mezzi di trasporto privati e non si occupa di policy del territorio. In effetti la piattaforma è costruita e sviluppata all’interno della logica del mercato, con un occhio particolarmente attento alla logica del mercato finanziario. Se tutto si risolvesse così, l’ecosistema cittadino si ridurrebbe a una piattaforma (un po’ come se un territorio fosse sfruttato a monocoltura). Ma una città deve svilupparsi in una logica di biodiversità se vuole essere ricca di opportunità, qualità, innovazione. Dunque, Morozov suggerisce di pensare al bene pubblico in un’ottica che tenga conto di chi va a piedi (la bellezza di una città è spesso data dalla prossimità dei luoghi raggiungibili a piedi), che tenga conto di chi si sposta con i mezzi pubblici, che pensi a chi va in bici e così via. Il trasporto in città ne diventa spesso un segno distintivo e la diversità può diventare iconica (le gondole e i rickshaw, sono due esempi esageratamente importanti ma fanno venire in mente altre soluzioni: a Ottawa un gruppo di persone invece di iscriversi alla palestra porta in giro la gente con un rickshaw tecnologicamente avanzato), sviluppando un artigianato locale la cui importanza emergente può essere paragonata alla tematica dell’alimentazione a chilometro zero. D’altra parte, tornando a Morozov, è anche vero che le città non dovrebbero affidare la raccolta di dati solo a una piattaforma, anche perché hanno mille modi per raccogliere dati ancora più significativi e articolati sulle esigenze di trasporto in città. (Se n’è parlato ieri a Villafranca con Benedetta Arese Lucini, responsabile di Uber in Italia, in un evento molto interessante al quale sono stato invitato da Mind the bridge: ci sono i riflessi su twitter).

Non si tratta, secondo me, di negare Uber. Ma di andare oltre. Piattaforme che non nascano da una piatta logica di mercato ma da una visione ecologica e dunque plurale possono generare ulteriori innovazioni. Helsinki ci ha pensato e ne è venuta fuori tra l’altro Kutsuplus. In queste esperienze à la Uber, gli europei non dovrebbero leggere soltanto una minaccia: dovrebbero leggere una sfida a far meglio.

ps. Il mio nuovo libro, Homo Pluralis, uscirà presto e parla, con tutti i limiti del suo autore, proprio di questo. Sarà presentato alla fondazione Feltrinelli di Milano, il 23 febbraio con Ferruccio de Bortoli e Morgan.

homo-pluralis-milano

EXPOST

Si è anche cercato di capire che cosa resterà dell’EXPO allo Hangar Bicocca, sabato 7 febbraio, dove c’è stato un bello show di ottimismo sulla prossima esposizione universale di Milano. L’ex presidente del Brasile Lula ha fatto notare al “compagno presidente del Consiglio” che “i poveri non hanno un sindacato” e il papa Francesco ha detto che “la radice di ogni male è l’iniquità”. Il consiglio di leadership del papa è stato il più efficace: “passare dalle urgenze alle priorità” è il modo migliore secondo il papa per operare delle scelte. E questa frase, semplice e fortissima, è stata la più apprezzata e ripetuta di tutta la giornata.

Ma a un tavolo si è discusso di “che cosa resterà dell’EXPO”. E le cose dette sono state molte e spesso molto importanti. Inutile riassumerle. Voglio solo far notare che anche l’organizzazione delle esposizioni universali, a sua volta, studia che cosa resta degli Expo. E la risposta è sorprendente: gli Expo sono essenzialmente fenomeni educativi.

In effetti, per otto anni una società si prepara a raccontare un futuro. Pensa in anticipo alle conseguenze del racconto del futuro che si incarnerà nell’Expo. Noi abbiamo perso sette di quegli otto anni. Ma all’ultimo momento, come spesso facciamo noi italiani, stiamo tirando fuori idee forti e concrete. Non sarà un successo della preparazione e della profondità dell’evento. Sarà l’ennesima dimostrazione della predisposizine di fondo che abbiamo a fare le cose sempre all’ultimo momento con una sorta di millenaria profondità, che spesso nascondiamo sotto le nostre sciocchezze fuffarole. L’EXPO sarà una narrazione dell’ecologia del futuro, della necessità degli umani di imparare la sostenibilità, della concretezza della relazione ecologicamente consapevole tra tradizione e innovazione, che si vede ovviamente meglio che in altri settori nella filiera globale dell’alimentazione.

Pensarci ex-ante, per gli italiani, sembra sempre impossibile. Ci arriviamo giusto prima di essere costretti a osservare la storia ex-post. In quei momenti, rarissimi, quando siamo uniti per fare bella figura all’ultimo momento, talvolta, ci riusciamo. Vedremo. Alla fine non possiamo non augurarcelo. Non solo per il bene nostro: perché questa volta si parla del bene di tutti.

A Trieste. Città come piattaforma open source

A Trieste la pratica dell’idea di “città come piattaforma open source” va avanti. Grazie al lavoro di persone come Salvatore Iaconesi, dell’Isia di Firenze, di giovani progettisti come Mirko Balducci, Marina Bassani, Marta Maldini, Guido Marchesini, Mattia Mezzabotta, Francesco Puccinelli, Andrea Santarossa e Sara Ubaldini. E grazie a un Comune, dove evidentemente qualcuno ascolta. “L’intento di creare una Città Open Source dove l’amministrazione rilascia le API (Application Programming Interfaces) cittadine e un vero e proprio City Construction Kit, offerto ai cittadini come strumento per la libera creazione di applicazioni, esperienze, operazioni creative ed artistiche, di servizi, culture, coordinamenti, nuove filiere.” (smartinnovation).

Da non perdere, in questo contesto, il libro orchestrato da Carlo Ratti, Architettura open source, Einaudi.

Disegno. Rivista per la nuova cultura industriale. Suggerimenti critici sulla banalizzazione maker

Il quarto numero di Disegno, la rivista che si occupa di cultura industriale a partire dall’esperienza del design, è bellissimo. Il notiziario si apre con la nascita della School of Sustainability, pensata da Mario Cucinella. E tra i servizi c’è tutto da leggere in quel bel mix di eleganza essenziale, profondità di conoscenza e semplicità di esposizione.

Io numero si apre con l’editoriale importante di Stefano Casciani. Il grande designer è stupefatto della banalizzazione del tema dei maker. Dice (taglio qualche parola): “Nello spettegolare dei media su tutto quanto fa spettacolo, torna ultimamente il tormentone del 3D printing come unico possibile futuro per il progetto, liberazione finale dei consumatori e via scherzando”. Un’iperbole, per Casciani, una serie di esagerazioni, prive di consapevolezza e votate al conformismo della moda. “E’ sintomatico che colui che è considerato uno dei guru dello stampaggio do it yourself, l’ex-editor di Wired Chris Anderson, nel suo pur fondamentale libro Makers cerchi di dimostrare come il 3D printing stesso può essere soprattutto un’occasione di business, senza preoccuparsi di eccessive considerazioni estetiche e tanto meno etiche”. La stampa di armi, il consumo di petrolio, l’incompetenza di design: tutto viene preso acriticamente in nome della “grande novità”. Tutto è centrato sulla finanza e il business. Tutto è orientato solo alla conquista di quote di mercato a suon di manipolazioni mediatiche.

Casciani pensa che il futuro del design sarà utopico o non sarà: il design è ricerca incarnata, ma il suo ruolo rischia di essere travolto dalla banalizzazione acritica del fenomeno dei “maker” della quale Anderson si è fatto guru e che la finanza si prepara a usare come ha usato i “social”, lo “sharing” e tutto quello che appare all’orizzonte delle novità che conquistano attenzione, magari con ideologie facili che conoscono la grammatica delle emozioni e entrano nel vocabolario alla moda. Per qualche anno.

Chi non si ferma alle piattaforme americane. La Cina in effetti…

L’Europa è pervasa da mille discussioni su internet e, spesso, queste discussioni si rivolgono contro lo strapotere delle piattaforme americane. Ma l’Europa sarebbe più credibile e allo stesso tempo più forte se dedicasse un pensiero e molte azioni alla costruzione di piattaforme locali, in grado di fare concorrenza a quelle americane. Ovviamente non replicandole, ma trovando altre idee, altre categorie di piattaforme. Come del resto gli americani non cessano di fare.

Uno sguardo alla situazione cinese può servire. E Stefano Pierucci (Daxue Consulting) ha inviato questo testo che mi pare possa essere utile: non per copiare, ma per sapere che se hai un grande mercato interno, magari suddiviso in territori nei quali si parlano lingue differenti, puoi fare molte cose.

Conoscere l’e-commerce in Cina
(di Stefano Pierucci)

Non è una novità che l’economia Cinese stia evolvendosi a ritmi senza precedenti. Negli ultimi anni il Governo di Pechino non ha tradito le aspettative portando la crescita del Paese da un iniziale 7.5% (2011-2015) ad un prospettato 7% annuo a partire dal 2016 fino al 2020.

Il piano di sviluppo presentato dal Ministero dell’Industria ed Information Technology Cinese (MIIT) all’interno del Broadband China Project (2013) ha prefigurato l’obiettivo storico di portare la copertura FTTH (fiber to the home) all’interno del 95% delle zone urbane del Paese fino al 2016 al fine di garantire un più favorevole ambiente e migliori infrastrutture per l’e-commerce.

Il China Internet Network Information Center (CNNIC) ha confermato che questa politica ha già generato più di 600 milioni di utenti della rete nel 2014, con un incremento annuo di 14.42 milioni rispetto al 2013 per un volume totale di ricavi nel mercato B2C (Business to Consumer) online pari a € 39.3 miliardi nella seconda metà del 2014.

All’interno dello stesso mercato, il Governo di Pechino è riuscito a mantenere un ruolo di primo piano. L’utilizzo dei domini di primo livello nazionale (ccTLD) risulta essere infatti pari al 55.6% del totale, il che evidenzia la prevalenza dell’estensione .CN all’interno della rete ed il conseguente controllo da parte del Governo Centrale del relativo traffico dati. Essendo infatti gestito direttamente dal MIIT per il tramite del CNNIC, il dominio risente delle politiche “protezionistiche” messe in atto da Pechino su tutti i contenuti della rete.

L’evoluzione dei principali motori di ricerca cinesi mete in luce il modo in cui gli stessi abbiano saputo utilizzare a proprio vantaggio lo sviluppo dell’ICT all’interno del Paese. In particolare Baidu, 360 e Sogou hanno aumentato la loro presenza dal 92.25% (2013) al 97.97% (2014) mentre Google è passato dal 2.90% allo 0.34% durante lo stesso periodo (-89%).

Una e-commerce strategy di successo dipende prima di tutto dal modo in cui si riesce ad ottimizzare la propria visibilità all’interno di questi motori di ricerca utilizzando le giuste tecniche di Search Engine Optimization (SEO). Tali metodologie, già in uso da circa 30 anni, sono diventate particolarmente diffuse a partire dal 1998 con l’ingresso di Google Inc.

La società informatica di Mountain View rappresenta il principale motore di ricerca utilizzato al mondo, con una quota di mercato superiore al 60%. Baidu invece rappresenta il suo primo competitor in Cina, con più di 600 milioni di utenti ed uno share che sfiora il 65%. Poichè quest’ultimo utilizza algoritmi diversi da quelli adottati da Google è importante conoscere le giuste tecniche per migliorare la propria strategia di e-commerce all’interno del mercato cinese.

Come ogni strategia di SEO che si rispetti, il primo obiettivo di ogni sito rimane la determinazione delle parole chiave che si dimostrino rilevanti sia per il proprio business sia per la rete. Qualora il proprio sito conti poche pagine (così come avviene per le PMI) è possibile svolgere questa ricerca in modo autonomo e senza l’utilizzo di software professionali a pagamento.

Poichè in Cina esistono dialetti significativamente differenti tra di loro, è possibile riscontrare varie espressioni con cui i consumatori locali si riferiscono allo stesso prodotto o servizio. Avere dunque una conoscenza approfondita della lingua cinese gioca un ruolo chiave per determinare le giuste keywords per il proprio business e si sconsiglia l’utilizzo dei più comuni traduttori online.

Esistono diversi strumenti per la ricerca delle parole chiave sul web ed in genere se ne consiglia un uso combinato per essere sicuri della rilevanza dei propri risultati. Nonostante Google occupi una quota di mercato relativa al traffico dati in Cina difficilmente paragonabile a quella di Baidu, il suo principale strumento di keywords research (Google’s Keyword Tool) offre una valida quantità di dati e risulta essere più facile da utilizzare rispetto al concorrente Baidu’s Keyword Tool.

La scelta dell’host è altrettanto importante poichè Baidu indicizza con preferenza i siti aventi un dominio .CN. Potrebbe pertanto essere necessaria un’autorizzazione ICP da parte del MIIT al fine di trasferire il proprio dominio internazionale in Cina.

La velocità con cui l’host permette di navigare all’interno del sito facilita ulteriormente la classificazione dei risultati sul SERP ed è pertanto fondamentale scegliere le migliori società di hosting a cui affidarsi (si consigliano gli hosts con base ad Hong Kong per ottenere una rapida navigazione ed una buona indicizzazione).

Un’ulteriore differenza rispetto a Google è che Baidu non riesce ancora a leggere alcune tipologie di files tra cui flash, java, contenuti frame/iframe ed i files text contenuti all’interno delle immagini. Al fine di ottenere maggiore visibilità è consigliabile non utilizzare tali strumenti ma adottare un più comune linguaggio HTML, evidenziando in grassetto le parole chiave.

Utilizzare collegamenti ipertestuali all’interno del proprio sito garantisce ulteriore visibilità. Baidu usa ora sistemi di metrica più avanzati rispetto al passato e permette una migliore indicizzazzione attraverso l’utilizzo di termini chiari e comprensibili.

Lo scambio di backlinks, equivale al migliore strumento per scambiarsi visibilità sul web. A differenza di Google tuttavia, che privilegia la quantità di links piuttosto che la loro qualità, Baidu premia i contenuti ben referenziati, indicizzando con priorità quelli in lingua locale che utilizzano collegamenti con fonti conosciute.

La qualità del traffico è altresì importante. Poichè i siti cinesi premiano la qualità dei contenuti gli utenti sono abituati a navigare in pagine che contengono solo le giuste parole chiave ed i giusti backlinks. Avere molto traffico senza realmente attrarre la clientela interessata ai propri prodotti o servizi infatti penalizza il business nel medio-lungo periodo.

La facilità di navigazione all’interno del sito, come risultato del minor livello di complessità ed un frequente aggiornamento dei contenuti, garantisce altresì una migliore visibilità ed è consigliabile strutturare la propria pagina in modo lineare, così da consentire di arrivare ai contenuti più “nascosti” utilizzando al massimo tre click.

L’utilizzo dei c.d. bradcrumbs all’interno della pagina facilita la navigazione all’interno della stessa ed è un ulteriore punto di forza per la propria SEO strategy.

Baidu considera i sottodomini secondo regole sostanzialmente differenti rispetto a Google. Mentre quest’ultimo infatti considera ogni sottodominio separatamente, affidandogli una classificazione specifica sul SERP, Baidu li considera come elementi integranti dell’insieme. Per questo motivo non è consigliabile riempire la propria pagina web con sottodomini in quanto il ripetersi di parole chiave e tags potrebbe insospettire il motore di ricerca e portare ad un’indicizzazione più bassa rispetto a quella sperata.

Condividere i propri contenuti sui social network è un ulteriore elemento a vantaggio del proprio ranking. Inserire i segnalibri alla base della propria pagina permette di condividere la stessa con una clientela esponenzialmente più vasta. Si consiglia l’utilizzo di “Baidu Share”, il quale permette di condividere i propri contenuti con 16 tra le principali piattaforme social in tutta la Cina.

Per costruire la propria reputazione è necessario infine promuovere il proprio sito attraverso collegamenti con pagine caratterizzate da contenuti affini. Ciò permette a Baidu di capire l’importanza che l’attività economica ricopre nel mercato cinese. Questa peculiarità fa riferimento al retaggio culturale del c.d. guanxi, secondo cui le connessioni personali e la fiducia costruita tra due o più soggetti è alla base del funzionamento dell’economia e guida lo sviluppo delle PMI cinesi sia a livello locale che internazionale.

Adottare la giusta strategia di Search Engine Optimization in Cina è dunque lo strumento di e-commerce più intelligente per accedere all’interno di questo mercato in crescita del +5% annuo ed assistere al suo sviluppo a parità di mezzi ed opportunità. L’attenzione posta dal Governo Centrale sulla censura dei contenuti e sullo sviluppo del ccTLD nazionale non deve essere intesa come una minaccia all’iniziativa economica da parte di imprenditori stranieri quanto piuttosto il tentativo di proteggere lo sviluppo dell’economia interna e, consequentemente, di garantire una maggiore competitività delle aziende nazionali in futuro.

Stefano Pierucci
Daxue Consulting – Shanghai

ps. Se qualcuno ha uno sguardo fattuale su realtà che possano essere importanti da osservare e sulle quali non si fa abbastanza informazione, se quel qualcuno ha una preparazione di valore e volontà di contribuire, se i suoi contributi sono adatti al contesto che si è creato con questo blog e se capisco quello che scrive, ebbene: se questo blog può essere utile, in quelle condizioni, è a disposizione.

Economist. Contro la discriminazione dei dati su internet: tre domande e risposte

Un grande articolo dell’Economist rilancia il tema della neutralità della rete, mentre si avvicinano le decisioni della FCC in America e della Commissione in Europa. Il settimanale britannico mette in luce le varie posizioni ma in fondo mostra come la neutralità sia una condizione fondamentale per un fiorente mercato internettiano, suggerendo che questa forma di regolamentazione sarà sempre di un processo di sviluppo più che un sistema di principi. È il classico approccio britannico alla legge, orientato ai risultati più che ai dogmi. Il che è un bene. Ma soprattutto sottolinea come il mercato, con la sua capacità generativa, non discende dall’assenza di regole, ma dalla presenza di regole giuste. Chi critica la neutralità come regolamentazione antimercato fa lo stesso errore di chi critica le regole che limitano il potere delle banche: la deregolamentazione delle banche ha prodotto enormi disastri, un mercato ha bisogno di regole giuste. Quali sono le regole giuste? Quelle che non proteggono l’interesse di una sola parte forte del mercato ma che tentano di trovare un equilibrio tra le forze diverse. Per questo non si arriva mai alla fine, per questo è un processo. Ma per questo occorre avere ben chiara la barra strategica.

1. L’introduzione di regole a favore della neutralità della rete è contro il mercato?

No. Il mercato è un sistema concorrenziale nel quale chi innova non deve chiedere il permesso a nessuno. Una regola che garantisca un gioco competitivo leale a tutti gli operatori non è una limitazione del mercato ma la sua principale garanzia. Come dimostrano le autorità Antitrust, ci vuole una regola a favore della concorrenza per proteggerla dai monopoli. Ebbene: senza una regola a favore della neutralità della rete, i grandi operatori possono in ogni momento discriminare il traffico dei dati in funzione dei loro interessi. Vedere il caso olandese sul pezzo dell’Economist per credere. La deregolamentazione del settore bancario in America è stata una mossa antimercato, ha rafforzato il potere oligopolistico delle poche banche globali e ha distrutto il mercato in una quantità di settori, a partire da quello delle case. Il mercato è la legge della concorrenza non la legge del più forte.

2. La neutralità della rete impedisce agli operatori di investire?

A parte di fatto che molti operatori rispondono di no. A parte il fatto che la crescita dell’internet neutrale ha creato un enorme mercato per gli operatori telefonici che hanno finora investito molto sulla rete e con profitto. A parte il fatto che gli investimenti in banda ultralarga devono avere un ritorno ma non è detto che debbano averlo soltanto con la discriminazione dei dati e la costruzione di servizi discriminanti a più alto prezzo. Il punto è: sono sicuri gli operatori che se non investono loro non investirà nessuno? Google da una parte, i governi dall’altra, le reti come commons dall’altra ancora… Una remunerazione dell’ultrabanda con abbonamenti più elevati non può essere sufficiente? Perché visto che i costi di costruzione stanno scendendo? In realtà, la discriminazione cambia fondamentalmente la struttura dell’internet riportando gli operatori al potere sui contenuti e i servizi che si usano in rete. Da quel potere pensano di ottenere un vantaggio incommensurabile. Ma a svantaggio della libertà di innovare senza chiedere il permesso, impoverendo tutto il sistema e alla fine anche se stessi.

3. Come si fa a garantire servizi a qualità elevata senza creare una rete non neutrale?

Si dice che internet non sia lo strumento sicuro che dovrebbe essere per le comunicazioni con gli ospedali: una comunicazione salvavita dovrebbe avere una priorità, si dice. Si dice che le comunicazioni con gli impianti industriali o con le centrali nucleari dovrebbero avere una priorità nella sicurezza. Si dice che la trasmissione di contenuti video e audio di alta qualità dovrebbe essere prioritizzata per aumentare il servizio e la qualità. Bene. Nessuno, ma proprio nessuno impedisce a certi operatori di costruire altre reti, non neutrali per servire queste esigenze. Anzi. Forse varrebbe proprio la pena di farle. Reti dedicate ai militari ci sono già. Reti dedicate alla tv, alle centrali nucleari, alla sanità: non c’è tempo da perdere, si facciano, si rendano sicure e si facciano pagare. Basta che nessuno le chiami “internet”. Non sono internet, che è un ecosistema neutrale rispetto ai dati dei contenuti e dei servizi innovativi che vi si generano. Reti dedicate, prioritarie o a banda garantita peraltro non potrebbero esistere sull’attuale rete internet che è per forza “best effort”. Dunque: internet è neutrale e così crea una grande economia, innovazione, occupazione, come è dimostrato. Ma niente impedisce di fare nuove tecnologie di rete per servizi che richiedono qualcosa di diverso da internet. Imho.

Vedi anche:
Google: Strong net neutrality rules won’t hurt the future rollout of Google Fiber

Doctorow e DRM: di chi è il mio browser, il mio computer, il mio libro?

Una persona consapevole del valore del copyright per l’attività economica degli autori non può che prendere in considerazione i temi che riguardano la protezione dei suoi diritti online. Ma una persona consapevole della struttura ecosistemica dell’internet non può che sperare che quei suoi diritti non siano protetti a scapito di altri diritti altrettanto importanti. Sulla rete occorre equilibrio. E quindi è importante ascoltare con attenzione quello che dice un autore come Cory Doctorow in relazione al DRM, software che serve a proteggere un’opera coperta da copyright online e che secondo lui sta cambiando il rapporto tra gli autori e il pubblico, oltre che il rapporto tra il pubblico e i loro computer (Gizmodo).

DRM, or digital rights management, is a digital lock placed on media content and devices. Supporters say DRM protects businesses and artists from piracy and theft. Sounds good, right? Opponents say it kills innovation, doesn’t stop piracy, and helps malware distributors. This month, a group led by the Electronic Frontier Foundation has assembled to come up with ways to fight DRM.

The World Wide Web Consortium, which just admitted the MPAA, has been pushing for every internet browser with HTML5 to ship with DRM since 2013. With Google, Netflix, and Microsoft on their side, it looks like DRM could very well become a requirement for browsers. But the opposition is about to take a stand. The Apollo 1201 project, led by the EFF with special consultant Cory Doctorow, is working with researchers and academics to try to repeal laws supporting DRM, including section 1201 of the Digital Millennium Copyright Act.

Per superare una delle questioni citate da Doctorow, peraltro, non sarebbe necessario combattere il DRM. Si potrebbe richiedere che tutti i DRM siano interoperabili, a me pare. In modo che per esempio un libro acquistato su Google possa essere usato su Amazon o Apple o altra piattaforma meno proprietaria: non si vede perché no, a mio parere. L’interoperabilità delle piattaforme resta un tema aperto che potrebbe innovare profondamente l’economia della rete.

Pisa: Master Big Data Analytics & Social Mining

È partito il nuovo master in “Big Data Analytics & Social Mining” a Pisa. Parte con una consapevolezza della necessità di avviare lo sviluppo di professionalità per ruoli da “data scientist” che hanno bisogno di conoscenze tecniche profonde e raffinate capacità narrative. Sul sito di SoBigData i documenti che motivano la convinzione di quante opportunità si stiano aprendo in questo settore di attività e di come un master può contribuire a coglierle.

Al via il master in “Big Data Analytics & Social Mining”
Il corso, diretto dal professor Dino Pedreschi, è nato dalla collaborazione tra Università di Pisa e CNR

Al via il nuovo master in “Big Data Analytics & Social Mining”, il corso nato dalla collaborazione tra l’Università di Pisa e il CNR che mira a formare la figura professionale del “data scientist”. (…)

Tra le primissime e più innovative iniziative del genere nel panorama universitario italiano, il master in “Big Data Analytics & Social Mining” è rivolto ai laureati magistrali in qualunque disciplina e mira a formare la figura professionale del “data scientist”, che “The Economist” ha definito la più interessante del XXI secolo. Lo scienziato dei dati deve avere almeno tre competenze specifiche. La prima è sapere gestire, acquisire, organizzare ed elaborare dati. La seconda è sapere come estrarre conoscenza dai dati. La terza capacità è lo storytelling, il sapere comunicare a tutti, con diverse forme di rappresentazione, le storie suggerite dai dati. Il “data scientist” è insomma una figura emergente e preziosa che unisce le competenze dell’informatico, dello statistico e del narratore, al fine di estrarre le pepite d’oro nascoste sotto le montagne dei Big Data. Il tutto entro una forte dimensione etica, perché un uso distorto dei Big data può porre a rischio la nostra libertà e i nostri diritti.

Ed ecco alcuni appunti da SoBigData sulle opportunità del settore:

Secondo le previsioni di un recente rapporto (Framing a European Partnership for a Big Data Value Ecosystem), “l’Europa ha la chance di sfruttare il mercato in rapida espansione dei Big Data in modo da svolgere, entro il 2020, un ruolo di primo piano nel mercato globale della creazione di valore dai Big Data. [ ... ] Entro la fine del decennio, il business dei dati sarà diventato un settore chiave in Europa per lo sviluppo di prodotti e servizi basati sui dati stessi, sull’analisi dei dati, e sulle conoscenze acquisite attraverso l’analisi dei dati. Applicazioni data-driven aiuteranno le aziende a progettare prodotti migliori, a migliorare i loro business plan, e a creare nuovi modelli di business. I Big Data aiuteranno i governi ad attuare politiche più efficaci e le persone a migliorare la qualità della loro vita. Tutti quanti ci fideremo delle applicazioni data-driven e le useremo continuamente.”

Insomma, l’idea dei Big Data sta sbocciando insieme con la speranza di sfruttare le conoscenze che questi dati nascondono per risolvere i problemi fondamentali della società e dell’economia. Vi è, tuttavia, un ostacolo formidabile alla realizzazione di questo sogno: trasformare vasti oceani di dati disordinati in conoscenza è un compito estremamente difficile e, purtroppo, il numero di professionisti qualificati in grado di affrontare la sfida è assolutamente insufficiente. Tutti gli osservatori concordano che l’abbondanza di Big Data coesiste con la profonda scarsità di data scientist, la figura professionale emergente e preziosa che unisce “le competenze di informatico, statistico e narratore per estrarre le pepite d’oro nascoste sotto montagne di dati”; il mestiere che The Economist definisce “the sexiest job of the 21st century” (Data, data everywhere).

Contro lo spreco: per una vista sull’economia dell’alimentazione nell’ecosistema dell’innovazione

Nòva oggi ha un paginone sull’innovazione necessaria a ridurre gli sprechi alimentari. È un filone enorme per iniziative di buon impatto economico ed emerge essenzialmente da un pensiero consapevole della struttura ecosistemica dell’innovazione: una struttura concreta esattamente come quella che riscontriamo nell’ambiente. E in effetti il complesso sistema del cibo è sintesi di ambiente e informazione e quindi può generare più facilmente di altri settori una narrativa sintetica che tenga conto dei concetti di ecosistema e innovazione.

Intanto, si è conclusa la prima fase della selezione di idee innovative in relazione alla filiera dello spreco alimentare organizzata da ComoNExT, Parco Scientifico Tecnologico, e SiFooD Science & Innovation Food District, associazione promossa da Whirlpool R&D nata con lo scopo di trasferire innovazione e conoscenza nel settore delle tecnologie per la riduzione dello spreco alimentare. Vedremo come le idee che saranno selezionate si svilupperanno. Sul sito di ComoNExT si possono seguire le notizie in materia.

Rieti ripensa il suo cuore con una chiamata alle idee

Ragazzi di Rieti, professionisti di valore, hanno organizzato una chiamata per progetti, idee e persone allo scopo di costruire una visione per l’area dell’ex Snia Viscosa: 30 ettari di stabilimenti e magazzini da tempo abbandonati. I ragazzi contano sulla loro rete di intelligenze: Rena. E hanno lanciato la loro call internazionale con un evento, ieri, cui hanno partecipato almeno 500 cittadini, il sindaco e molte autorità strette intorno alla possibilità di rianimare un luogo nel quale i reatini hanno vissuto, lavorato, sperato per decenni. Un’iniziativa che non parte dalla ristrutturazione ma dalla visione. Che si sviluppa con un metodo coinvolgente che valorizza le esperienze internazionali e le conoscenze locali. Un’impostazione di valore da seguire. Qui la chiamata per progetti.

Grant Nòva ancora qualche giorno. Quale città ha attratto di più?

Si stanno concludendo i giorni per presentare le candidature alle 20 borse di studio organizzate da Nòva in 9 città con altrettanti partner che si sono offerti di fare da mentor: I3P, IIT, università di Pisa e università per stranieri di Perugia, centro design di Stm a Napoli. Per chi si è perso qualche puntata qui c’è un post utile. Intanto, questa è la situazione per ora:

21,8 del totale delle candidature per 2 borse a Perugia
18,2 del totale delle candidature per 3 borse a Bologna
18,2 del totale delle candidature per 3 borse a Torino
14,5% del totale delle candidature per 3 borse a Milano
9,1 del totale delle candidature per 2 borse a Pisa
7,3 del totale delle candidature per 2 borse a Napoli
7,3 del totale delle candidature per 2 borse a Venezia
1,8 del totale delle candidature per 2 borse a Genova
1,8 del totale delle candidature per 1 borsa a Jesi

Perugia, Bologna e Torino hanno attratto più candidature. Seguono Milano e Pisa. Poi Napoli e Venezia. Genova sta crescendo. Jesi è entrata in gioco per ultima.

Il pianeta connesso. Domani giornata europea della privacy

Domani, 28 gennaio, è la giornata europea della privacy. E il Garante italiano organizza a Roma un incontro sui diritti umani nel “pianeta connesso“. Condivido un abstract su quanto si potrebbe dire. Nella speranza di ricevere consigli prima di domani. Il panel per il quale l’intervento è previsto si intitola “I diritti nell’infosfera”.

“L’infosfera è un ambiente arricchito da informazioni che si scambiano sulla rete e alle quali si accede ovunque con strumenti che si vanno trasformando in “protesi” del corpo umano e in particolare del cervello. La situazione è diversa da quella che si era creata nell’epoca dei media analogici. E i partecipanti alla produzione, scambio, memorizzazione, elaborazione, utilizzo delle informazioni sono diversi rispetto al mondo dell’informazione prevalentemente diviso in professionisti e fruitori tipico dell’epoca analogica. In questo contesto le piattaforme giocano un ruolo strategico di crescente importanza per la raccolta, l’elaborazione, la registrazione e la distribuzione delle informazioni. La logica non è simile a quella dell’epoca industriale, con una linea di montaggio di informazioni: si può comprendere meglio facendo riferimento alla metafora dell’ecosistema. Questo significa che affrontando il tema dei diritti umani nell’infosfera occorre pensare alle interdipendenze oltre che alle singole situazioni particolari. Il tema dei diritti fondamentali si può affrontare solo considerando queste interdipendenze: il che conduce a pensare più approfonditamente che in passato all’equilibrio da trovare tra i diritti e il modo che usiamo per salvaguardarli ed espanderli: espressione, trasparenza, privacy, oblio, innovazione, pubblico dominio, copyright, sono strumenti per la salvaguardia e lo sviluppo di diritti che non possono essere sostenuti senza pensare all’interdipendenza delle situazioni nelle quali si sviluppa la vita umana e quindi non possono essere fatti valere con normative che li considerino come elementi isolati, il cui enforcement non ha conseguenze su altri diritti. L’equilibrio è dunque un obiettivo fondamentale come i diritti stessi. Questo argomento conduce tra l’altro a sottolineare diritti propri del funzionamento dell’internet, come il tema della neutralità della rete, una condizione che definisce le specificità della rete in termini di relazioni umane, responsabilità e innovazione. Per affrontare questi argomenti occorre dunque superare un sistema normativo che si concentra sui singoli diritti, ma allargare il campo, da un lato, a una dimensione “costituzionale” che regolamenti i regolamentatori, e dall’altro considerare il codice con il quale vengono fatte le piattaforme che lungi dall’essere semplicemente una tecnologia funzionale è un vero e proprio sistema normativo che influisce profondamente sul comportamento e i diritti degli utenti.”

Il programma:

Apertura dei lavori
Antonello Soro – Presidente dell’Autorità Garante per la protezione dei dati personali

I diritti nell’Infosfera
Juan Carlos De Martin – Politecnico di Torino
Antonio Spadaro – Direttore de “La Civiltà Cattolica”
Luca De Biase – “Nòva – Il Sole 24 Ore”
Moderatore: Augusta Iannini – Vice Presidente dell’Autorità Garante per la protezione dei dati personali

IoT e protezione dei dati personali
Roberto Baldoni – Università degli studi di Roma “La Sapienza”
Massimo Russo – Direttore di “Wired Italia”
Lella Mazzoli – Università degli studi di Urbino “Carlo Bo”
Moderatore: Licia Califano – Componente dell’Autorità Garante per la protezione dei dati personali

Tecnologie indossabili e intelligenza aumentata
Giovanni Boccia Artieri – Università degli studi di Urbino “Carlo Bo”
Andrea Granelli – Presidente di “Kanso”
Federico Maggi – Politecnico di Milano
Moderatore: Giovanna Bianchi Clerici – Componente dell’Autorità Garante per la protezione dei dati personali

Chiusura dei lavori
Marina Sereni – Vice Presidente della Camera dei Deputati