L’intelligenza imbecille e il pensiero automatico nella scatola nera

L’intelligenza imbecille e il pensiero automatico nella scatola nera

«Usiamo il cervello tutto il tempo e non sappiamo bene come funziona», dice Pierre Baldi, ricercatore nel campo del machine-learning all’università di California, Irvine. Allo stesso modo useremo le macchine che imparano anche se non sappiamo bene come.

Il problema della “scatola nera” algoritmica è accettabile per chi ragiona in modo pragmatico e sostiene “basta che funzioni” mentre è inaccettabile per chi ha bisogno di comprendere le responsabilità delle decisioni che si prendono in base al ragionamento automatico.

Ma l’analogia tra scatole nere biologiche ed elettroniche regge?

I “comportamentisti” hanno considerato la psicologia umana come un’accettabile scatola nera e l’hanno studiata osservando, appunto, le reazioni umane agli stimoli senza tentare di capirne le logiche interiori. Allo stesso modo sembra si stia tentando di comprendere l’intelligenza artificiale che a sua volta appare come una “scatola nera” (Nature)

Ma il punto è che la scatola nera elettronica può apparire più comprensibile a chi l’ha costruita e meno a chi semplicemente la osserva. La scatola nera elettronica è comunque frutto di progettazione umana e può essere più o meno guidata da pregiudizi e volontà di chi l’ha realizzata. Del resto, come dice Frank Pasquale una società che è guidata da algoritmi dei quali non si conosce il funzionamento può diventare facilmente invivibile. Ma se quel funzionamento è conosciuto a poche centrali di potere quella società diventa facilmente ingiusta e inaccettabile. Con un di più di inquietudine: in fondo bisogna riconoscere che c’è una differenza tra la scatola nera del cervello biologico e la scatola nera del cervello elettronico, perché tra umani ci si intende sulla scorta di una quantità di segni di comunicazione non verbale che con i computer mancano. Questo può fare paura (Nature è per la trasparenza).

Ma il bello è che di solito si studiano queste questioni pensando alla superiorità dell’intelligenza delle macchine o degli umani. Raramente si confronta invece il percorso dell’imbecillità.

libro-ferraris-imbMaurizio Ferraris ha dedicato un saggio sensibile e intenso al problema dell’imbecillità. Sul quale torneremo in un contesto più preciso. Osserva comunque Ferraris che l’imbecillità è il default per gli umani, esperti o inesperti che siano. Un po’ ciò che ha osservato Daniel Kahneman, psicologo che ha vinto il Nobel per l’economia: la maggior parte delle decisioni sono operate sulla base della prima cosa che viene in mente all’umano, solo una minoranza sono frutto di un percorso razionale. I computer neurali potrebbero avere la stessa tendenza, visto che funzionano in modo analogo agli umani.

È possibile. Il caso originario dell’errore della macchina che si guidava da sola nel 1991, progettata da Dean Pomerleau, è un esempio. La sua macchina funzionava in modo abbastanza soddisfacente. Poi un giorno avvicinandosi a un ponte ha scartato in modo imprevedibile. Pomerleau ci ha messo molto a scoprire che la sua macchina aveva imparato a tenere la direzione basandosi sul colore verde a lato della strada e visto che il ponte non aveva erba ai margini non l’ha voluto percorrere (Nature). Una sciocchezza da imbecille.

A questo punto la domanda è: è imbecille il computer o il suo progettista? Sappiamo che spesso l’umano lo è, dice Ferraris. Ma allora creando una macchina a sua immagine e somiglianza ha fatto nascere un imbecille? La definizione di imbecillità, in Ferraris, è interessantissima: «cecità, indifferenza o ostilità ai valori cognitivi» (per spiegarli rimanda ai lavori di Kevin Mulligan, ma più o meno si tratta dell'”etica della ricerca”, dei valori di chi usa la ragione per cercare la verità; approfondiremo). Ed è dunque una colpa. Dunque la ricerca della verità è una responsabilità. Possiamo dire che il computer sia coscientemente alla ricerca della verità seguendo un’etica che non sia stata programmata in lui dal suo progettista? Oppure quell’etica è un valore emergente di fronte alla pragmatica necessità di far sì che l’apprendimento diventi efficace (e quindi pre-esiste al progetto)?

Ci si avvicina così alla possibilità che l’imbecillità rivelata dalla ricerca di Ferraris sia in realtà una condizione con la quale si devono fare i conti, sia nel momento in cui decidono gli umani che quando decidono le macchine.

La colpa dell’imbecillità, così svelata, diventa la responsabilità di prenderne coscienza e dunque lavorare per conquistare il pensiero all’intelligenza consapevole, centimetro per centimetro. La tensione al miglioramento delle decisioni è una responsabilità umana. La tecnologia può aiutare l’umano a costruire una nicchia eco-culturale che renda più probabile l’utilizzo dei valori cognitivi e l’abbandono della colpevole cecità, indifferenza o ostilità nei loro confronti. Che come una “scatola nera” non efficiente produce disastri: dal cambiamento climatico alle crisi finanziarie.

Letture:
The Administration’s Report on the Future of Artificial Intelligence
Obama, Joi Ito, neural nets
Can we open the black box of AI?
How Tech Giants Are Devising Real Ethics for Artificial Intelligence
Radical atoms and the alchemists of our time

e…
Un inedito carteggio Bohr-Heisenberg

  • 08/10/2017 Due scenari per il lavoro del futuro Sono passati quasi vent’anni dalla pubblicazione de “Il lavoro nell’epoca della fine del lavoro” di Ulrich Beck. Il sottotitolo dell’edizione italiana curata da Einaudi era “Tramonto delle sicurezz...
  • 22/11/2017 Esperimenti di valutazione dell’apprendimento: carta vs. digitale Gli studenti preferiscono leggere su schermo digitale. Ma alla prova dei test, comprendono meglio quando leggono su carta. È l'evidenza che hanno raccolto Patricia A. Alexander, psicologa della Uni...
  • 22/12/2016 Aperto, connesso, confuso e migliorabile Il sistema delle notizie al momento è molto confuso, dice il 64% gli americani che hanno risposto al sondaggio Pew uscito qualche giorno fa. Il 24% dice che c'è un po' di confusione. Solo l'11% deg...
  • 21/10/2016 Disinformazione, strutturale ma non fatale Walter Quattrociocchi e Antonella Vicini hanno scritto il loro libro sulla Misinformation, Guida alla società dell'informazione e della credulità. Si tratta di un'indagine basata sull'analisi di gr...
  • 17/10/2015 Intercept: la guerra dei droni Una soffiata. Documenti in abbondanza. Ricerca giornalistica per confermarli. Per rivelare i segreti della guerra dei droni in Medio Oriente e Africa. The Intercept, il giornale co-fondato dal Glen...
  • 29/04/2016 Ci possiamo capire qualcosa? Dirk Helbing: la crescita esponenziale di tutto aumenta la complessità Nel corso della conferenza organizzata l'altro giorno dall'Istituto Italiano di Cultura di Bruxelles al Bozar, con Telmo Pievani, Dirk Helbing ha fatto notare che esiste una tendenza poco sottoline...

2 Commenti su “L’intelligenza imbecille e il pensiero automatico nella scatola nera

Add Comment Register



Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *