Home » media » Siri si prende un po’ di tempo per riflettere. Sui sentimenti tra persone e macchine
media

Siri si prende un po’ di tempo per riflettere. Sui sentimenti tra persone e macchine

Che cosa succede quando nella relazione tra persone e macchine entrano in gioco emozioni che assomigliano a sentimenti? Sherry Turkle, in Alone Together (traduzione italiana Codice), ne dà conto in modo ampio e sofisticato. È chiaro che le persone proiettano sulle macchine alcuni dei loro modi – culturali, psicologici, neurali – di interpretare i comportamenti altrui: ma questo avviene soprattutto quando l’interfaccia delle macchine è progettata in modo da sollecitare queste proiezioni. La metafora che facilita l’uso della macchina è esplicitamente un’allusione all’interazione abituale con qualche altra cosa: la scrivania è stata la metafora del Mac e lo ha reso molto più facile da usare dei comandi speciali del Dos, nel 1984; e l’amicizia è la metafora di Facebook che rende il social network molto più facile da usare dei comandi fin troppo malleabili dell’ambiente MySpace nel 2005.

Il problema tecnologico è l’equilibrio tra la metafora e le funzionalità, come il problema psicologico è l’equilibrio tra l’empatia e l’autenticità.

1. Quando le funzionalità sono squilibrate rispetto alla metafora, solo i tecnici sanno usare le macchine. Ma in altri casi, al contrario, la metafora prende il sopravvento sulla funzionalità. Esempio? Uno dei temi più difficili della storia dell’informatica è l’intefaccia vocale. Comandare il computer a voce è un’attività molto complessa e ci siamo abituati a concedere alla macchina un margine di errore visibile e superiore di solito al 20%. Il che di solito limita l’utilizzo di queste funzionalità. Quando però è arrivata Siri, sulle macchine Apple, la metafora è stata davvero invadente: le sue risposte argute e divertenti – soprattutto quando non sapeva rispondere o non capiva la domanda – erano tali da sollecitare l’illusione di poter sviluppare una relazione piuttosto complessa con la macchina. Alla lunga, però, quell’illusione si è scontrata con la realtà di una tecnologia che comunque non è riuscita finora a raggiungere gli standard di qualità che la metafora prometteva. E il pezzo di Nick Bilton sul NyTimes dimostra che Siri ha sollecitato lo sviluppo di una relazione emotiva con la macchina, solo per condurre a una più cocente delusione.

2. Quando una relazione online, mediata dalla metafora dell’amicizia su Facebook, conduce a comportamenti simpatici o troppo empatici con persone fondamentalmente sconosciute, va in crisi il senso di autenticità. I comportamenti nei confronti della macchina e dei suoi algoritmi, sostanzialmente nascosti dietro la metafora dell’amicizia di Facebook, finiscono con l’assomigliare ai comportamenti che si tengono con le persone fisicamente presenti e profondamente conosciute. Ma anche in quel caso, tanto più alta è l’illusione, tanto più grande può essere la disillusione.

L’equilibrio richiede lucidità e razionalità nella gestione delle relazioni con le macchine. Il che non è la condizione umana abituale. E apre la strada a comportamenti indotti dall’asimmetria delle competenze intorno alle tecnologie persuasive. Un design responsabile delle macchine potrebbe inserire nella relazione dei richiami alla razionalità o almeno alla trasparenza delle informazioni sulla relazione: ma la maggiore autenticità della relazione con la macchina a sua volta va realizzata con una forma intelligentemente gradevole; perché razionalità non significa noia, così come sentimento non significa purtroppo sempre gioia. Si tratta di un percorso di sviluppo delle metafore delle macchine che ha ancora bisogno di investigazioni.

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video

Post più letti

Post più condivisi