Il dibattito intorno alle conseguenze dell’intelligenza artificiale applicata alla lettura dell’immensa conoscenza raccolta in rete e che prende decisioni come un’ontelligenza collettiva avanza ogni giorno nella prospettiva biforcata che da un lato guarda alla disruption esponenziale e dall’altro lato vede il temuto avvento di macchine superiori alla civiltà umana. Gli articoli in basso ne danno qualche conto.
Un punto di partenza può essere osservare che la narrazione iperfinanziaria conduce a incentivare ogni sviluppo che parcellizza il lavoro umano in piccoli compiti senza consapevolezza competa del progetto al quale si applicano. (Vedi: l’algoritmo del nuovo taylorismo).
La parcellizzazione dei gesti umani è coerente con la concentrazione del sapere nelle grandi piattaforme e con la gestione della complessità per via algoritmica. Come mostra il primo testo citato qui sotto però la complessità è tale che nessun umano che scrive gli algoritmi ne conosce pienamente le conseguenze. Donde emerge l’idea che le macchine prima o poi si renderanno autonome dagli umani.
Questa visione non va presa come previsione (meglio ricordare sempre “il cigno nero”) ma come dimostrazione della necessità di un salto di livello nella cultura umana che certamente sarà sorpassata dagli eventi se non evolve: e che tuttavia è probabile che evolva se si pone le domande giuste.
Il passaggio successivo è dunque l’esplorazione di un territorio del sapere che possa accompagnare e accelerare questa evoluzione. Lo possiamo chiamare “digital humanities” in mancanza di meglio. È una ricerca condotta nella consapevolezza dell’impressionante fusione della tecnologia digitale nelle strutture della vita quotidiana degli umani.
Vedi:
Not Even the People Who Write Algorithms Really Know How They Work
What will happen when we succeed in creating AI that’s smarter than we are?
Commenta