Home » libri » L’intelligenza imbecille e il pensiero automatico nella scatola nera
libri perplessità Post ricerche

L’intelligenza imbecille e il pensiero automatico nella scatola nera

«Usiamo il cervello tutto il tempo e non sappiamo bene come funziona», dice Pierre Baldi, ricercatore nel campo del machine-learning all’università di California, Irvine. Allo stesso modo useremo le macchine che imparano anche se non sappiamo bene come.

Il problema della “scatola nera” algoritmica è accettabile per chi ragiona in modo pragmatico e sostiene “basta che funzioni” mentre è inaccettabile per chi ha bisogno di comprendere le responsabilità delle decisioni che si prendono in base al ragionamento automatico.

Ma l’analogia tra scatole nere biologiche ed elettroniche regge?

I “comportamentisti” hanno considerato la psicologia umana come un’accettabile scatola nera e l’hanno studiata osservando, appunto, le reazioni umane agli stimoli senza tentare di capirne le logiche interiori. Allo stesso modo sembra si stia tentando di comprendere l’intelligenza artificiale che a sua volta appare come una “scatola nera” (Nature)

Ma il punto è che la scatola nera elettronica può apparire più comprensibile a chi l’ha costruita e meno a chi semplicemente la osserva. La scatola nera elettronica è comunque frutto di progettazione umana e può essere più o meno guidata da pregiudizi e volontà di chi l’ha realizzata. Del resto, come dice Frank Pasquale una società che è guidata da algoritmi dei quali non si conosce il funzionamento può diventare facilmente invivibile. Ma se quel funzionamento è conosciuto a poche centrali di potere quella società diventa facilmente ingiusta e inaccettabile. Con un di più di inquietudine: in fondo bisogna riconoscere che c’è una differenza tra la scatola nera del cervello biologico e la scatola nera del cervello elettronico, perché tra umani ci si intende sulla scorta di una quantità di segni di comunicazione non verbale che con i computer mancano. Questo può fare paura (Nature è per la trasparenza).

Ma il bello è che di solito si studiano queste questioni pensando alla superiorità dell’intelligenza delle macchine o degli umani. Raramente si confronta invece il percorso dell’imbecillità.

libro-ferraris-imbMaurizio Ferraris ha dedicato un saggio sensibile e intenso al problema dell’imbecillità. Sul quale torneremo in un contesto più preciso. Osserva comunque Ferraris che l’imbecillità è il default per gli umani, esperti o inesperti che siano. Un po’ ciò che ha osservato Daniel Kahneman, psicologo che ha vinto il Nobel per l’economia: la maggior parte delle decisioni sono operate sulla base della prima cosa che viene in mente all’umano, solo una minoranza sono frutto di un percorso razionale. I computer neurali potrebbero avere la stessa tendenza, visto che funzionano in modo analogo agli umani.

È possibile. Il caso originario dell’errore della macchina che si guidava da sola nel 1991, progettata da Dean Pomerleau, è un esempio. La sua macchina funzionava in modo abbastanza soddisfacente. Poi un giorno avvicinandosi a un ponte ha scartato in modo imprevedibile. Pomerleau ci ha messo molto a scoprire che la sua macchina aveva imparato a tenere la direzione basandosi sul colore verde a lato della strada e visto che il ponte non aveva erba ai margini non l’ha voluto percorrere (Nature). Una sciocchezza da imbecille.

A questo punto la domanda è: è imbecille il computer o il suo progettista? Sappiamo che spesso l’umano lo è, dice Ferraris. Ma allora creando una macchina a sua immagine e somiglianza ha fatto nascere un imbecille? La definizione di imbecillità, in Ferraris, è interessantissima: «cecità, indifferenza o ostilità ai valori cognitivi» (per spiegarli rimanda ai lavori di Kevin Mulligan, ma più o meno si tratta dell'”etica della ricerca”, dei valori di chi usa la ragione per cercare la verità; approfondiremo). Ed è dunque una colpa. Dunque la ricerca della verità è una responsabilità. Possiamo dire che il computer sia coscientemente alla ricerca della verità seguendo un’etica che non sia stata programmata in lui dal suo progettista? Oppure quell’etica è un valore emergente di fronte alla pragmatica necessità di far sì che l’apprendimento diventi efficace (e quindi pre-esiste al progetto)?

Ci si avvicina così alla possibilità che l’imbecillità rivelata dalla ricerca di Ferraris sia in realtà una condizione con la quale si devono fare i conti, sia nel momento in cui decidono gli umani che quando decidono le macchine.

La colpa dell’imbecillità, così svelata, diventa la responsabilità di prenderne coscienza e dunque lavorare per conquistare il pensiero all’intelligenza consapevole, centimetro per centimetro. La tensione al miglioramento delle decisioni è una responsabilità umana. La tecnologia può aiutare l’umano a costruire una nicchia eco-culturale che renda più probabile l’utilizzo dei valori cognitivi e l’abbandono della colpevole cecità, indifferenza o ostilità nei loro confronti. Che come una “scatola nera” non efficiente produce disastri: dal cambiamento climatico alle crisi finanziarie.

Letture:
The Administration’s Report on the Future of Artificial Intelligence
Obama, Joi Ito, neural nets
Can we open the black box of AI?
How Tech Giants Are Devising Real Ethics for Artificial Intelligence
Radical atoms and the alchemists of our time

e…
Un inedito carteggio Bohr-Heisenberg

Commenta

Clicca qui per inserire un commento

Rispondi a stefano durì Cancel reply

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video

Post più letti

Post più condivisi