Home » innovazione » Errore disumano
innovazione perplessità Post

Errore disumano

Il post-umano è umano, ma dobbiamo ancora capire perché.

Intelligenze artificiali che girano su computer quantistici potrebbero prendere il sopravvento sugli umani e creare un cambiamento nella direzione dell’evoluzione? Potrebbero cambiare la geopolitica dando a chi controlla quelle tecnologia il potere assoluto sugli umani? Russia, Cina, Stati Uniti ed Europa stanno correndo in quella direzione e sono destinate al conflitto? I robot si approprieranno di tutto questo e cominceranno a dominare il pianeta? Gli scenari fantascientifici non mancano.

In questo post si trova la segnalazione di due letture e subito sotto un commento.

Le due letture:
Marco Basaldella, ricercatore all’università di Udine, spiega in modo divulgativo e molto informato come sta evolvendo il tema dell’intelligenza artificiale, in relazione alla preoccupazione che diventi una minaccia per l’umanità: Perché il deep learning fa paura.
Vivek Wadhwa e Alex Salkever spiegano le potenzialità e i limiti attuali del super computing basato sulle architetture quantistiche, mostrando che la tecnologia avanza più velocemente di quanto ci si attendesse ma è profondamente instabile: These Next-Generation Supercomputers Are So Hot They Need to Run in a Freezer.

Nella vasta discussione avviata dall’immaginaria possibilità che le macchine vadano fuori controllo e prendano il potere sugli umani, un ramo del dibattito è andato nella direzione di cercare quello che resterà umano. E spesso si sente ripetere che il bello dell’umano è la sua capacità di commettere errori creativi, in opposizione alla fredda capacità calcolatrice dei computer: non è divertente, si dice, seguire una partita a scacchi tra due computer, anche se sono più bravi degli umani; molto meglio vedere come va a finire una partita tra umani, perché con i loro errori e incapacità di calcolare tutto possono creare situazioni inattese ed esteticamente belle o divertenti. Ma è esattamente così? E perché questo dovrebbe essere soddisfacente?

In realtà, esiste una lettura alternativa del progresso delle macchine. Le macchine vanno più veloci, ma non vanno più lontano con l’intelligenza di quanto non sappiano andare gli umani. Perché sono fatte di chip ma anche di software. E questo è più limitato dalla cultura umana che dalla capacità di calcolo. In quest’ottica, la pomposa affermazione della Singularity secondo la quale la crescita esponenziale della velocità dei computer li porterà prima o poi a essere più intelligenti dell’umanità sarebbe inadeguata a immaginare realisticamente il futuro.

Vediamo gli argomenti.

I sostenitori della possibilità che le macchine vadano fuori controllo e prendano il potere sugli umani hanno bisogno di alcune assunzioni forti. La principale è che se i computer vanno più veloci, chi li programma sarà in grado di usare la capacità di calcolo per generare maggiore intelligenza nei computer. Tanto da creare le condizioni perché i computer poi imparino da soli e superino i limiti degli umani.

Contro questa ipotesi, vale l’osservazione sempre vagamente sorprendente secondo la quale i computer fanno un sacco di errori. Sono tutt’altro che perfetti. Continuano in questo modo perché sono programmati e progettati da umani. E i limiti della tecnologia, cioè della cultura che li produce, restano in tutta la loro splendida imperfezione.

La questione dell’intelligenza artificiale è emblematica in proposito. Poiché non si sa esattamente quale sia il percorso compiuto da un programma di deep learning che gira su una rete neurale per arrivare a imparare qualcosa, si dice che potrebbe andare oltre la comprensione umana e uscire di controllo. È un’ipotesi. Quello che è certo è che oggi osservando questo fenomeno gli umani non sono concentrati sulla comprensione di quale sia il percorso compiuto dal computer ma si occupano essenzialmente di capire dove il computer abbia sbagliato. E casomai cercano di trovare il modo di farlo sbagliare meno. Nella comprensione di un testo, per esempio, il computer totalmente autodidatta fa errori e gli umani fanno fatica a trovare dove li faccia. Per questo un altro approccio è basato sull’insegnamento al computer di tutto ciò che è grammatica e linguistica per poi su questa base insegnare al computer a leggere da solo i testi per comprenderne il significato. Il primo approccio è più IBM, il secondo è più Expert System. Di certo ci sarà progresso con tutti e due gli approcci. Ma quello che interessa rimarcare è che il punto non è tanto relativo a quanto i computer facciano da soli, ma a quanti errori fanno e perché.

D’altra parte la questione del computer quantistico è una storia di errori, a sua volta. In pratica, il computer quantistico in teoria va enormemente più veloce dei computer normali perché calcola non solo sulla base di due possibili stati dell’informazione, 0 o 1, ma di diversi stati allo stesso momento, gestendo stati dell’informazione del tipo 1-0, 1-1, 0-1, 0-0 contemporaneamente. Il problema è che il computer quantistico è fisicamente instabile, ha bisogno di operare a temperature difficili da mantenere, funziona per pochissimi millisecondi e poi fa errori.

L’unione di deep learning e computer quantistico potrebbe fare sfracelli di calcolo. E annullare per esempio ogni crittografia attualmente conosciuta. Certamente sarà una questione geopolitica. Ma oltre al potere dei computer occorrerà sempre tener presente la loro capacità di fare errori. Che resta il loro limite.

La corsa esponenziale dei computer è limitata dal contesto del loro sviluppo: fisico e culturale. Che si mostra nel sistema degli errori dei computer. La curva dello sviluppo dei computer non è un’esponenziale infinita ma una logistica che deve continuamente spostarsi nella prossima logistica. In questo modo l’intervento umano resta necessario.

Vedremo se questa ipotesi spiega meglio la realtà di quella disumana della singolarità. Di certo serve a mantenere alto il senso si responsabilità di chi sta lavorando al progresso tecnologico attuale. Il che non è poco.

Commenta

Clicca qui per inserire un commento

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video