L’80% delle volte, il sistema di riconoscimento facciale usato dalla polizia di Londra sbaglia. L’80% delle volte. Lo hanno calcolato alcuni ricercatori dell’università dell’Essex (Forbes). In particolare sbaglia generando falsi positivi, cioè crede di riconoscere criminali e terroristi in persone assolutamente prive di precedenti.
Percentuale ridicola. I poliziotti farebbero meglio a tirare una monetina. Ma anche se sbagliasse meno, un software può indurre una polizia ad arrestare una persona sapendo che in una certa percentuale sbaglia? E poi, se possiamo sapere quante volte sbaglia accusando innocenti, non possiamo invece sapere quante volte sbaglia lasciando passare senza problemi persone che invece andrebbero sospettate. La regola è che non si può far decidere a un algoritmo la sorte di una persona: occorre comunque una verifica umana e sarà bene predisporre l’organizzazione che la realizzi in modo efficiente. Il software è frutto di una cultura che ritiene gli algoritmi più oggettivi e infallibili degli umani. Non lo sono.
Vedi:
EU should ban AI-powered citizen scoring and mass surveillance, say experts
Humans vs. algorithms: Who — or what — should decide?
The Hidden Dangers in Algorithmic Decision Making
Can Algorithms Save Us from Human Error? Human Judgment and Responsibility in the Age of Technology
Algorithms have already taken over human decision making
Commenta