Home » innovazione » La responsabilità dei tecnici dell’intelligenza artificiale
Bill of rights innovazione News perplessità

La responsabilità dei tecnici dell’intelligenza artificiale

Geoff Hinton, scienziato informatico, capo di Google Brain, noto per i suoi risultati di ricerca con gli Artificial Neural Networks, dice che il suo compito si ferma a fare tecnologie che funzionano. La relazione tra quelle tecnologie e la società non lo riguarda. In particolare non gli interessa che la società comprenda come funziona l’intelligenza artificiale che la sua organizzazione produce. (Forbes)

La questione è rilevante, visto che per esempio la GDPR europea chiede che la “scatola nera” della tecnologia dell’automazione cognitiva sia comprensibile perché siano salvaguardati i diritti di coloro che ne sono in qualche modo investiti (Computerweek). Negare questo dibattito o il ruolo dei progettisti in questo dibattito apre a considerazioni profondamente discutibili.

In effetti, l’articolo citato di Forbes riporta una quantità di reazioni critiche nei confronti di Hinton. È probabile che se la società non comprende come funziona una tecnologia tenda a respingerla. E non per niente si direbbe che l’intelligenza artificiale, una volta superato il picco dello hype secondo Gartner, rischi di dover affrontare una perdita di consensi. Non siamo di fronte alla questione degli OGM ma forse quella esperienza dovrebbe interessare all’industria dell’intelligenza artificiale più di quanto non faccia sospettare il pensiero di Hinton.

In ogni caso un grande programma europeo per creare intelligenza artificiale che funziona in modo trasparente sarebbe dal punto di vista scientifico una sfida importante.

Ricordiamo la serie di Propublica “breaking the black box” e i lavori di Luke Guyer.

Commenta

Clicca qui per inserire un commento

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video

Post più letti

Post più condivisi