Home » Approfondimenti » Bill of rights » È etico “embeddare” l’etica nella tecnologia?
Bill of rights innovazione Post

È etico “embeddare” l’etica nella tecnologia?

Ha sempre stupito il fatto che le automobili siano costruite per viaggiare ad alta velocità anche se ormai quasi ovunque esistono limiti di velocità massimi molto inferiori. Se una società vuole imporre la prudenza ai guidatori di auto può riempire le strade di cartelli, rilevatori di velocità e poliziotti, oppure obbligare i costruttori a fare auto che non sono capaci di andare troppo forte. Eppure questo non succede, non è neppure un grande dibattito.

Ma allora perché esiste il dibattito su come costruire robot e intelligenza artificiale in modo che si attengano a certe regole etiche?

La prima risposta è che Isaac Asimov ha stabilito la narrativa in materia in modo straordinariamente efficace, con le tre leggi della robotica. Si tende a dimenticare, peraltro, che queste regole “embeddate” dagli umani nelle loro macchine – nello stesso mondo di Asimov – sono state superate proprio dalla dinamica evolutiva dei robot stessi che si sono dati da soli la legge fondamentale.

La seconda risposta è che mentre di solito si pensa alla tecnologia come a un insieme di strumenti che non sono buoni o cattivi in sé ma lo diventano per il modo in cui gli umani li usano, quando si pensa alla robotica e all’intelligenza artificiale emerge la paura che si tratti di artefatti capaci di andare fuori dal controllo degli umani e di decidere da soli. Come il computer di 2001 Odissea nello spazio. Anche pure quel computer era stato progettato così da qualcuno.

In realtà, la progettazione contiene i valori dei progettisti. E fino a un certo punto il funzionamento delle tecnologie li rispecchia. Molte tecnologie sono abilitanti e lasciano tanto spazio all’interpretazione degli utilizzatori. Ma tutte le tecnologie hanno un’interfaccia che a sua volta influenza il comportamento degli utilizzatori e la loro capacità di interpretare il modo di usarle. Il problema di embeddare le regole etiche nelle tecnologie non è insensato, dunque, in un certo senso e ovviamente fino a un certo ragionevole punto. È piuttosto difficile invece, pensare di imporre a tutti i progettisti le regole volute da un centro legislativo o etico, vista la possibilità di produrre tecnologie che non seguano quelle regole in paesi che non le impongano. È l’argomento con il quale George Church ha vinto contro Jennifer Doudna che chiedeva una moratoria contro l’utilizzo del CRISPR-CAS9 nei geni umani ereditabili: «se non lo facciamo noi, lo farà qualcun altro…».

Corinne Cath, Sandra Wachter, Brent Mittelstadt, Mariarosaria Taddeo e Luciano Floridi hanno scritto un articolo intitolato “Artificial Intelligence and the ‘Good Society’: the US, EU, and UK approach” per discutere gli approcci di tre contesti democratici alla questione etica delle intelligenze artificiali (Academia). E giungono alla conclusione che il principale compito di un comitato etico che si occupi di intelligenza artificiale è quello di studiare le conseguenze delle scelte tecnologiche e di immaginare quali risultati positivi l’intelligenza artificiale potrebbe generare per le società. In questo modo potrebbe influenzare la progettazione e l’utilizzazione delle macchine. La cultura è la principale dimensione evolutiva degli umani. E a questa essi devono dedicare la massima attenzione.

Il cielo stellato sopra di noi è ormai il cielo stellato che noi stessi esploriamo con le nostre macchine. La missione Voyager sta uscendo dai confini del sistema solare dopo 40 anni.

Vedi anche:
Elon Musk launches Neuralink, a venture to merge the human brain with AI
FGV hosts international conference on Internet Governance
SSIG school of internet governance
Open government partnership

Commenta

Clicca qui per inserire un commento

Rispondi a Anonimo Cancel reply

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video

Post più letti

Post più condivisi