Una delle scoperte che molti osservatori neofiti – come la maggior parte di noi – dell’intelligenza artificiale hanno fatto in questi ultimi tempi è che una gran parte delle cose che i computer sanno e sui quali esercitano la loro capacità di “apprendere” viene dagli umani. Da una parte si tratta di tutto il sapere che è stato pubblicato caoticamente sull’internet e di tutti i dati sugli utenti e le cose connesse, che hanno dato un’accelerazione straordinaria ai risultati di apprendimento delle intelligenze artificiali. Dall’altra parte si tratta di dati che vengono inseriti a mano per migliorare certe funzioni dell’intelligenza artificiale come la capacità di riconoscere quello che c’è in una foto o la capacità di capire un testo. Il punto è che l’intelligenza artificiale vorrebbe presentarsi come una tecnologia più autonoma di così dagli umani. Se non lo è diventa più tranquillizzante. Se invece è autonoma diventa più preoccupante, e intrigante.
In questo quadro si comprende la rilevanza della notizia secondo la quale DeepMind che aveva creato AlphaGo il programma che aveva battuto il campione umano di Go, ha ora realizzato AlphaGo Zero che ha battuto AlphaGo: la differenza è che la prima imparava a giocare osservando gli umani giocare; mentre la seconda ha imparato giocando contro sé stessa (TechReview).
Nel frattempo sto leggendo: Jerry Kaplan, Intelligenza Artificiale, Luiss, 2017.
[…] un po’ è frutto di elaborazioni autonome delle macchine (il caso della nuova versione di AlphaGo). Comunque si tratta di operazioni che stanno dentro specifici domini disciplinari. Qualcuno cerca […]