Questo è il terzo di una serie di post sul futuro. Un’esplorazione che riguarda quattro generi di questioni: perché pensare il futuro? come leggere il futuro nel presente? che cosa ci impedisce di lavorare sul futuro in modo libero da preconcetti? che cosa possiamo fare per favorire un futuro preferibile?
Genere 3 – Liberare il futuro dai preconcetti
Il futuro non è scritto. Anche perché il futuro non esiste, non è mai esistito. Ci sono però i nostri pensieri e le nostre azioni, con le loro conseguenze. Un classico modo per leggere le conseguenze è quello di credere a una narrativa. Che è qualcosa di più di un racconto: è una prospettiva preconfezionata, dotata di una mitologia e un’articolazione complessa, che però serve a vedere chiaramente che cosa viene prima e che cosa viene dopo. Si riconoscono le narrative per esempio nel modo che gli umani scelgono per raccontare le notizie.
Per esempio. Pochi giorni fa OpenAI ha annunciato l’intelligenza artificiale che è capace di “ragionare”. La presentazione della notizia è andata direttamente alle sue conseguenze: si avvicina il momento in cui l’intelligenza della macchina sarà come quella degli umani (The Verge). Perché a OpenAI dicono che il modello “ragiona”? Perché spacchetta un problema complesso in pezzetti che poi tratta con il suo metodo statistico classico fondato sull’elaborazione di una vastissima quantità di dati. Chiamare questa soluzione tecnica evocando il concetto di “ragionamento” è una soluzione adatta alla narrativa che OpenAI propone: la macchina si avvicina all’umano. I pezzetti del problema che la macchina analizza uno alla volta determinano un’organizzazione del lavoro che OpenAI chiama “chain of thought”: una catena di pensieri: ancora una formula adatta alla narrativa. Infatti, passando da un pezzetto al successivo, tra un’elaborazione e l’altra, la macchina dice all’utente che “sta pensando”. Come farebbe un umano. La notizia dunque viene raccontata nel quadro di una narrativa partita fin dall’inizio dell’intelligenza artificiale quando i mega super scienziati che hanno dedicato un agosto alla creazione del concetto di intelligenza collettiva, nel 1956, al Dartmouth College, erano convinti che qualsiasi funzione del pensiero umano, dall’apprendimento in poi, si possa descrivere in modo tanto preciso da poter essere simulato da una macchina opportunamente programmata. Sulla loro idea hanno lavorato generazioni di scienziati. E di narratori: i film sull’intelligenza artificiale tendono spesso a umanizzarla, quasi sempre immaginando rischi abbastanza tremendi per gli umani.
Pensavano di metterci qualche mese, gli scienziati di Dartmouth. Dopo quasi settant’anni siamo ancora qui a valutare i risultati dei loro eredi scientifici. E ne siamo ammirati. Ma non siamo per niente convinti che quello che le macchine fanno sia uguale a quello che fanno gli umani quando pensano. Un bivio interpretativo si è creato fin da subito, tanto che persino Alan Turing – che si era posto il problema – aveva sostenuto che se le macchine pensano lo fanno in modo diverso dagli umani.
La loro narrativa dice che le macchine possono fare quello che fanno gli uomini. Quindi conduce a pensare che le macchine sostituiranno gli uomini. E prima o poi li minacceranno. Senza questo finale tutta la narrativa è meno interessante. E infatti lo stesso ceo di OpenAI, paradossalmente, sostiene che l’intelligenza artificiale può generare grandi rischi per l’umanità. La credibilità e la fascinazione della narrativa è troppo importante per sottoporla a critica. Anche se questo conduce al paradosso di un imprenditore che denuncia la pericolosità del suo prodotto.
Il punto è che se si sta dentro una narrativa si conosce un modo di immaginare le conseguenze delle azioni. Ma ci si limita dal punto di vista intellettuale, progettuale e imprenditoriale.
Il futuro non esiste in quanto tale, ma è un concetto utile per richiamare l’insieme dei futuri possibili.
Per vederli occorre prima di tutto liberare la mente dalle narrative accettate acriticamente. Qualsiasi narrativa può avere delle alternative. E questo produce futuri diversi. Ai quali tra l’altro si può dedicare la propria vita per farli succedere.
Nel caso dell’intelligenza artificiale, si può pensare che la macchina non sia una cosa che fa quello che fanno gli umani. Si può pensare che la macchina faccia invece tutte le cose che gli umani non sanno fare, non sapendo fare quello che gli umani fanno bene. Sa fare calcoli troppo grossi per il cervello umano. Non sa riconoscere il senso di gesti che gli umani interpretano intuitivamente. Sa inventare messaggi di disinformazione, ma non sa che lo sono. E se le macchine fanno quello che gli umani non fanno, e viceversa, non c’è necessariamente un finale di sostituzione o di conflitto. La narrativa è totalmente diversa. La macchina di fatto ritorna strumento. Anche se dotato di una sua autonomia, nell’ambito delle cose che gli umani non fanno.
Come ci sono molte narrative, molte previsioni, molte teorie scientifiche, molti paradigmi, molti pregiudizi, molti quadri interpretativi, così ci sono molti futuri possibili. Il che è liberatorio. Il futuro è l’insieme dei futuri possibili. E pensare il futuro è riconoscere criticamente i tanti modi con i quali li immaginiamo. Se non c’è un solo futuro non siamo garantiti, ma non siamo neppure condannati.
Che poi questo conduca ad agire da persone libere, beh, questo è l’oggetto di un prossimo post.
Ma un punto va sottolineato. La disciplina di pensare il futuro come un insieme di futuri possibili, cercando magari anche quelli preferibili, è intellettualmente onesto, ha un valore liberatorio, non è un gesto di ottimismo. Non conduce necessariamente a risolvere i problemi. Ma sicuramente fa bene.
Insomma: nel nostro modo di pensare il presente c’è il futuro che emergerà come conseguenza delle nostre scelte. Se pensiamo bene vivremo meglio. Questa serie di post spera di servire a questo.
La serie
Parliamo del nostro futuro/1
Parliamo di futuri/2 – Technopolitique.
Commenta