Questo è un post vagamente troppo lungo. Me ne scuso
Implausibile. È la parola che due filosofi hanno scelto per commentare la possibilità che emerga un’intelligenza artificiale pericolosa per la specie umana perché, superando di molto le capacità cognitive degli umani, finisca per decidere autonomamente di fare i propri interessi e non quelli degli umani. Maurizio Ferraris definisce questa prospettiva implausibile perché le macchine non dimostrano di volere alcunché, dunque non dovrebbero neppure cercare il potere e, tanto meno, a scapito degli umani. Luciano Floridi usa la parola implausibile per segnalare la impraticabilità tecnica della sua realizzazione: «La “vera intelligenza artificiale” non è logicamente impossibile, ma è del tutto implausibile. Non abbiamo idea di come potremmo iniziare a progettarla, non da ultimo perché abbiamo una scarsa comprensione di come funziona il nostro cervello e la nostra intelligenza. Questo significa che non dovremmo perdere il sonno per la possibile comparsa di qualche ultraintelligenza. Ciò che conta davvero è che la crescente presenza di tecnologie sempre più “smart” sta avendo effetti enormi su come concepiamo noi stessi, il mondo e le nostre interazioni con il mondo. Il punto non è se le nostre macchine siano o possano diventare coscienti, o intelligenti, o in grado di conoscere qualcosa allo stesso modo degli umani. Non sono in grado e non lo diventeranno. Ci sono moltissimi risultati ben noti che indicano i limiti delle possibilità del calcolo razionale, i cosiddetti problemi indecidibili per i quali si può dimostrare che è impossibile costruire un algoritmo che porta sempre ad una risposta corretta del tipo “sì o no”». (Da leggere il suo testo su Aeon).
Di che cosa stiamo parlando dunque? In che modo possiamo tener conto dei limiti del calcolo nella decidibilità di certi problemi? Che cosa significa esattamente questa implausibilità?
Di che cosa stiamo parlando
Innanzitutto, vediamo di comprendere il senso di questo dibattito sul pericolo dell’intelligenza artificiale. Quello che sostengo è che la forma attualmente assunta dal dibattito è fatta per distrarre dai problemi reali e per indirizzare le preoccupazioni lontano da quello di cui effettivamente occorrerebbe occuparsi.
La preoccupazione sulla possibile nascita di una intelligenza artificiale coscientemente orientata a fare interessi diversi da quelli degli umani è nata da considerazioni logiche molto solide e da capacità narrative di grandissima qualità, ma oggi è stata strumentalizzata da banalizzatori che contribuiscono molto meno alla cultura e che al loro potere.
Floridi ricorda il pensiero di Irving John Good, un matematico già collaboratore di Alan Turing, che negli anni Sessanta diceva che se si ipotizza la possibilità di costruire una macchina in grado di superare gli umani in tutte le attività intellettuali è evidente che si deve prendere in considerazione l’idea che una simile macchina sarebbe anche in grado di costruire altre macchine altrettanto, se non più, intelligenti, generando un’esplosione di intelligenza dalla quale gli umani sarebbero largamente tagliati fuori. Il che sarebbe magnifico, posto che la macchina sia abbastanza “docile” da spiegare agli umani come tenerla sotto controllo. E aggiungeva Good che di questo aspetto si occupa solo la fantascienza, suggerendo di leggere più fantascienza. Il che evidentemente è stato fatto da persone come Stephen Hawking, Elon Musk e Bill Gates che hanno preso in considerazione scenari apocalittici in seguito all’introduzione di intelligenze artificiali potenzialmente pericolose. La serie delle grandi invenzioni romanzesche da citare in proposito è davvero mitica e la ricorda Floridi: la Maria di Metropolis (1927); il computer Hal 9000 di 2001: Odissea nello Spazio (1968) per la cui immaginazione ha contribuito anche Good; il robot C3PO di Star Wars (1977); l l’affascinante Rachael una replicante di Blade Runner (1982); l’androide Data di Star Trek: The Next Generation (1987); il temibile agente Smith di Matrix (1999) o la disincarnata Samantha di Her (2013). Ma se si intervista chi sta davvero lavorando a sviluppare qualcosa che abbia a che fare con l’intelligenza artificiale oggi si arriva sempre a scoprire che di tutto questo non c’è traccia nei progetti umani e si ha l’impressione che non ce ne sarà per almeno cent’anni. Gartner definisce l’intelligenza artificiale come un insieme di sistemi che automatizzano le decisioni in base alla modellizzazione quantitativa o la classificazione di informazioni complesse come immagini, video, audio. Questi sistemi possono apprendere per via statistica e prevedere in base a modelli quantitativi basati sui dati esistenti e attraverso processi di calcolo probabilistico e iterazioni, trovare modelli di comportamento in grandissimi data base di dati, prendere decisioni automatiche nell’ambito di processi relativamente precisi. In questo modo, Gartner vede l’intelligenza artificiale come uno strumento in grado di liberare tempo degli umani abilitando nuovi processi che sarebbero in sua assenza antieconomici.
Foridi sperimenta la fortunata vena delle alternative fondamentali già percorsa per esempio da Umberto Eco con gli apocalittici e gli integrati, proponendo due posizioni che descrivono altrettanti tipi di atteggiamento nei confronti delle prospettive dell’intelligenza artificiale: i Singularitarian e gli AItheist. Grandi giochi di parole. E qualcosa di più. Pre-religioni. I seguaci della Singularità credono che la crescita esponenziale della capacità di elaborazione dei microprocessori basti a ritenere che prima o poi i computer saranno effettivamente capaci di quello che suggeriva Good e che agli umani non resterà che sublimarsi nella loro realtà computazionale generando una nuova specie nella storia dell’evoluzione. C’è qualcosa dell’ideologia della Singularity University in questo atteggiamento. Ed è una posizione essenzialmente strumentale: serve a vendere corsi e consulenze, non ha quasi niente a che fare con la realtà, si occupa di una possibilità, certo, ma talmente improbabile da risultare puramente accademica. Le sue conseguenze non sono cognitive ma ideologiche ed economiche: indurre a preoccuparsi di questa eventualità non è tanto l’obiettivo dei singularitariani, quanto convincere il prossimo del fatto che loro conoscono il futuro e che l’unico modo per evitare guai è unirsi a loro: “Resistance is futile” dicevano i Borg di Star Trek… Gli AItheisti, negazionisti dell’intelligenza artificiale, hanno un atteggiamento altrettanto dogmatico, decisamente conservativo, poco attento agli sviluppi tecnologici e soprattutto tale da sottovalutare alcuni fenomeni dei quali occorre tener conto relativamente all’automazione e alle sue conseguenze. Negando il mito singularitariano, gli aiteisti negano anche l’opportunità di discutere di argomenti importanti connessi alle prossime fasi dell’automazione, sul lavoro e non solo: sostengono che già in passato le macchine hanno preoccupato i lavoratori e che alla fine hanno generato più lavoro; ma negano che questa volta ci sia qualcosa di diverso; e soprattutto non inducono a studiare come si attraversa la trasformazione che in quest’epoca appare accelerata e complicata.
Ma per tornare al punto. La discussione sui pericoli dell’intelligenza artificiale è essenzialmente una costruzione narrativa elaborata intorno ad alcune ipotesi scientifiche di una certa rilevanza logica, oppure si tratta di una prospettiva concreta? Entrambe le cose. Con una conseguenza distraente, questa sì piuttosto pericolosa.
Quella che chiamiamo intelligenza artificiale e abbiamo sotto gli occhi attualmente è tutt’altro che pericolosa: o perché è più che altro un giocattolo, come Siri, o perché funziona male, come un’automobile autonoma che sbagli a interpretare gli ostacoli che si trova di fronte e faccia un incidente. Tutto questo è in fondo banale. Ma serve a nascondere dell’altro.
Quello che tendiamo a non dire è che gli algoritmi che decidono autonomamente hanno già oggi un peso enorme nella vita degli umani, con conseguenze gravissime, che li possono rendere ricchi o poveri, infelici o soddisfatti: infatti gli algoritmi hanno già oggi preso il controllo della maggior parte delle transazioni finanziarie globali e si inseriscono in un meccanismo considerato autoregolato come appunto il mercato finanziario, rendendolo ancora più automatico e indipendente dalle singole decisioni degli umani. E di questo si parla poco. Quello che tendiamo a non dire è che le logiche di funzionamento dei social network, che possono influenzare la qualità dell’informazione, la visione del mondo e il buon umore o il cattivo umore di miliardi di umani, sono abbastanza automatiche e governate in parte crescente da algoritmi e intelligenze artificiali che prevedono i comportamenti umani e in base a queste previsioni propongono messaggi promozionali, manipolano le menti, suggeriscono comportamenti a umani meno consapevoli di quanto dovrebbero. Se ne parla di più ma le persone non ne tirano tutte le conseguenze.
Che cosa sono i limiti
L’Economist ha calcolato – ricorda Floridi – che la dimensione dei tacchini nell’ultimo secolo è aumentata progressivamente, grazie a migliori allevamenti, cure più efficaci e incroci. E per quanto riguarda il futuro, ha calcolato che se continuano a crescere così finiranno per essere grandi come gli umani in 150 anni e il 6mila anni saranno tanto grandi che il pianeta sembrerà piccolissimo. Ovviamente l’intento di questo paradosso era quello di farsi beffe dei sostenitori dell’approccio esponenziale alla previsione del futuro. Non esistono fenomeni esponenziali che proseguono all’infinito, perché prima o poi arrivano a un limite. Il limite che Floridi ricorda per le capacità del calcolo è nei problemi indecidibili. Ma in realtà esistono problemi fisici che pongono limiti alla crescita della potenza dei chip, esistono problemi culturali che pongono limiti alla crescita del software, esistono problemi climatici che pongono limiti alla crescita economica industriale basata sul consumismo di risorse limitate, e così via. La curva esponenziale prima o poi piega verso l’asintoto e si trasforma in una curva logistica. È l’ecologia che prende il sopravvento. Tenerne conto smantella l’idea di poter prevedere il futuro con lo stile dei singularitariani che banalizzano il futuro come il tempo in cui le curve esponenziali avranno schiacciato ciò che c’è oggi all’infinitamente piccolo o all’infinitamente obsoleto. L’ecologia impone un approccio più sano alla conoscenza. Accetta la complessità. E va a guardare i particolari per cercare una visione generale. Rispettando tutte le specie, tutte le dinamiche, tutte le nicchie eco-culturali… Anzi leggendo nella diversità la vera ricchezza di opportunità.
I singularitariani sono pericolosi più della macchina che prevedono: perché inducono a pensare a un futuro che non esiste e ad attrarre nella loro ideologia molti decision maker, perdendo di vista l’equilibrio dinamico della diversità e distruggendo il rispetto per le varie culture. Ma soprattutto sono compatibili con un’altra e più grave visione fideisticamente esponenziale: quella della finanza che vive dell’idea che la crescita economica sia infinita e illimitata.
Quell’ideologia che dovrebbe aver dimostrato tutta la sua strumentale grettezza con la serie di crisi economiche e culturali generate dalla speculazione finanziaria e dal consumismo insensato si basa sull’idea che la crescita infinita del Pil sia la risposta a tutti i problemi e che sia possibile purché il mercato sia lasciato autoregolato e purché le aziende non incontrino limitazioni normative sulla loro strada. È un’ideologia molto meno innocua dei quella dei singularitiani anche se questi la servono, consciamente o inconsciamente.
Fin dagli anni Settata, i limiti dello sviluppo sono entrati nella consapevolezza dell’umanità, grazie agli studi del Club di Roma e dell’Mit. Ma l’ideologia che scambia la teoria del mercato autoregolato per una realtà, che suppone che la concorrenza perfetta sia possibile e provochi la migliore allocazione delle risorse, che pensa che riducendo sempre e comunque il ruolo dello stato si possa far fiorire l’economia, è riuscita a creare le condizioni ideologiche perché gli umani non decidessero in favore del pianeta e della vita sulla Terra ma solo a favore delle imprese capitalistiche. Il mercato – come insegnava Fernand Braudel – non è il capitalismo. Il capitalismo è tutt’altro, anche se una magnifica operazione di “rebranding” ha fatto in modo che l’Occidente cominciasse a chiamare mercato quello che prima era chiamato capitalismo.
In effetti, il capitalismo che si nasconde dietro l’ideologia del mercato è tutt’altro che concorrenziale. Il capitalismo è il petrolio, il tabacco, le armi, le superbanche d’affari americane. Il capitalismo non è contro lo stato: ha bisogno di leggi che lo assecondino, ha bisogno di uno stato amico. Che nel suo caso è uno stato che fa la guerra, rallenta la trasformazione del sistema energetico verso le fonti rinnovabili, abbassa le tasse per i più abbienti e le imprese, accetta prebende e sostegno politico per i candidati amichevoli. Il capitalismo è fatto di grandi corporation che non fanno altro che sfruttare il loro gigantismo per costruire condizioni di profitto esagerato per sé, per i loro azionisti e per i loro ceo. I loro vantaggi sono considerati un effetto collaterale della crescita infinita che esse stesse dicono di garantire. E per trovare sempre nuovi mestieri da affidare alle corporation chiedono e ottengono privatizzazioni, liberalizzazioni, detassazioni all’infinito: sulla scorta dell’idea che comunque lo stato è ingiusto e inefficiente. Salvo poi chiedere allo stato di ricostruire il loro patrimonio quando lo distruggono in operazioni insensate come è avvenuto nella fase di parossismo indebitatorio precedente la crisi del 2007-2008. Seguono una logica che ormai sembra a sua volta una macchina. Nel corso della crisi del 2008, come mostra Andrew Ross Sorkin nel suo libro “Too big to fail”, i grandi capi delle mega banche si dichiarano impotenti di fronte allo scoppio della bolla dei mutui che si trasforma nella più grande catastrofe finanziaria dal 1929. Segno che anche loro pensano che il sistema sia andato fuori controllo. Ma anche quella spiegazione, nonostante tutto, è fantascienza.
Che cosa è improbabile
L’improbabile è che una macchina prenda il controllo del mondo e scalzi gli umani dalla loro posizione di dominio del pianeta. Ciò che è probabile è che gli umani facciano macchine che distruggono il pianeta e sé stessi. L’economia finanziaria speculativa è una di queste macchine.
È implausibile che una macchina voglia il potere. È plausibile che un ceto dominante voglia mantenersi al potere usando ogni mezzo, compreso quello di affidare la propria difesa alla macchina della speculazione finanziaria, al consumismo senza senso e ai social network manipolatori. Tutte le “macchine” che creano dipendenza e riducono il senso critico sono bene accette. È plausibile che la nuova guerra per l’egemonia globale avvenga attraverso la propaganda strutturale della disinformazione partecipata e la sorveglianza illegittima. È plausibile che il gigantismo di certe corporation capitalistiche sia eccessivo. Non è plausibile che queste macchine siano totalmente fuori controllo. Non è plausibile che gli umani non possano farci niente per correggere il tiro.
I nemici degli umani non sono i meccanismi ma gli umani stessi che li progettano, li mantengono in funzione, non li cambiano.
Il problema è che per cambiare questi meccanismi ci vuole tempo. E occorre avere una visione complessa. Impegnarsi per capire. Impegnarsi per trovare un consenso intorno ad analisi che richiedono attenzione. Gli avversari hanno gioco facile a sparare cavolate facili che fanno presa.
È tempo che anche i costruttori di una convivenza più decente imparino a parlare con semplicità. Ammettendo la complessità. E trovando la semplicità. Ma questa è un’altra storia.
Vedi anche:
Derrière l’illusion de l’intelligence artificielle, la réalité précaire des « travailleurs du clic »
AI, automation, and the future of work: Ten things to solve for
Skill shift: Automation and the future of the workforce
Notes from the AI frontier: Applications and value of deep learning
5 Questions We Should Be Asking About Automation and Jobs
Neuroscience-Inspired Artificial Intelligence
ps. La versione originale del pezzo di Floridi sulla “vera intelligenza artificiale” che è implausibile va letta: «True AI is not logically impossible, but it is utterly implausible. We have no idea how we might begin to engineer it, not least because we have very little understanding of how our own brains and intelligence work. This means that we should not lose sleep over the possible appearance of some ultraintelligence. What really matters is that the increasing presence of ever-smarter technologies is having huge effects on how we conceive of ourselves, the world, and our interactions. The point is not that our machines are conscious, or intelligent, or able to know something as we do. They are not. There are plenty of well-known results that indicate the limits of computation, so-called undecidable problems for which it can be proved that it is impossible to construct an algorithm that always leads to a correct yes-or-no answer.» Nel post è stato tradotto usando www.DeepL.com/Translator, un programma che usa intelligenza artificiale.
E’ molto bello, altro che lungo.
[…] da Luca De Biase, Apocalittici e integrati nell’epoca dell’intelligenza artificiale, clicca per leggere l’articolo […]