Finora la questione etica dell’auto che si guida da sola si era impantanata nella scelta teorica su quale disastro preferire in una circostanza senza speranza di soluzione positiva, come la decisione di uccidere bambini o anziani e cose del genere.
Con l’abbandono dell’idea di entrare subito sul mercato con auto di livello 3 (capaci di guida autonoma ma tali da poter sempre richiamare alla guida il conducente se la situazione dicenta teoppo difficile) per motivi di scarsa chiarezza legale, sembra crescere l’approccio Toyota che ritiene doveroso inteodurre comunque una serie di tecnologie che riducono automaticamente la probabilità di incidenti, come il rallentamento autonomo della velocità quando sensori, radar e mappe danno alla macchina informazioni che la persona non percepisce o non può processare con velocità sufficiente. “We all have a moral obligation to apply automated vehicle technology to save as many lives as possible as soon as possible,” said Gill Pratt, head of Toyota Research Institute (via Financial Times).
L’obbligo morale di innovare. Se hai una tecnologia che può salvare delle vite la devi introdurre… un principio dalle conseguenze potenzialmente importanti.
Commenta