Geoff Hinton, scienziato informatico, capo di Google Brain, noto per i suoi risultati di ricerca con gli Artificial Neural Networks, dice che il suo compito si ferma a fare tecnologie che funzionano. La relazione tra quelle tecnologie e la società non lo riguarda. In particolare non gli interessa che la società comprenda come funziona l’intelligenza artificiale che la sua organizzazione produce. (Forbes)
La questione è rilevante, visto che per esempio la GDPR europea chiede che la “scatola nera” della tecnologia dell’automazione cognitiva sia comprensibile perché siano salvaguardati i diritti di coloro che ne sono in qualche modo investiti (Computerweek). Negare questo dibattito o il ruolo dei progettisti in questo dibattito apre a considerazioni profondamente discutibili.
In effetti, l’articolo citato di Forbes riporta una quantità di reazioni critiche nei confronti di Hinton. È probabile che se la società non comprende come funziona una tecnologia tenda a respingerla. E non per niente si direbbe che l’intelligenza artificiale, una volta superato il picco dello hype secondo Gartner, rischi di dover affrontare una perdita di consensi. Non siamo di fronte alla questione degli OGM ma forse quella esperienza dovrebbe interessare all’industria dell’intelligenza artificiale più di quanto non faccia sospettare il pensiero di Hinton.
In ogni caso un grande programma europeo per creare intelligenza artificiale che funziona in modo trasparente sarebbe dal punto di vista scientifico una sfida importante.
Ricordiamo la serie di Propublica “breaking the black box” e i lavori di Luke Guyer.
Commenta