Home » innovazione » Rai Radio 3, Università Roma 3. Automatica-mente al Teatro Palladium
innovazione partecipazione perplessità Post ricerche visioni

Rai Radio 3, Università Roma 3. Automatica-mente al Teatro Palladium

Ieri sono stato sul palco del bellissimo Teatro Palladium di Roma, alla Garbatella, a raccontare il lavoro che stiamo facendo per scrivere un podcast per Rai Radio 3 sull’intelligenza artificiale. Il pubblico è stato fantastico. E poiché qualcuno lo ha chiesto, metto qui sotto un po’ di appunti. Magari mi potete correggere o segnalare integrazioni utili.


INTELLIGENZA

Qui si parla di intelligenza. La più grande caratteristica degli umani. Secondo alcuni vince di poco sulla loro stupidità. Secondo altri invece perde.

La civiltà umana è una lunga espressione di intelligenza… o di stupidità, appunto, per i pessimisti. Come si fa a capire chi ha ragione?

Già. Attraversiamo un periodo storico nel quale la civiltà umana registra il peggiore indice di gradimento della storia. Perché l’intelligenza umana è quella cosa che ha portato l’umanità a modificare il clima e l’ambiente tanto da provocare l’estinzione di metà delle specie che esistono sulla Terra e rischiare addirittura di provocare l’estinzione di sé stessa.

E ora l’intelligenza degli umani ha prodotto l’intelligenza artificiale. Che può moltiplicare la velocità e la quantità di cose che può fare l’intelligenza umana. Può servire a risolvere i problemi più velocemente. Oppure può lanciarla velocemente contro un muro.

In breve, con l’intelligenza artificiale si simulano cose di ogni genere per sapere come si muovono, come cambiano, come vanno a finire. Chiediamolo a chi la usa. Il direttore della produzione di una fabbrica dice che si può usare per simulare una macchina e prevedere quando avrà bisogno di manutenzione e quindi fermarla quando non sta funzionando per la produzione invece di interrompere il suo lavoro quando è più utile. Lo scienziato che progetta la ricerca di un grande laboratorio dice che può simulare gli esperimenti per individuare le molecole delle quali è fatto il corpo umano o quelle che servono a curarlo. Il capo di una squadra di programmatori informatici sottolinea che serve a fare la prima bozza di un software con qualsiasi linguaggio informatico. E il fondatore di un’azienda di traduzioni a sua volta testimonia che l’intelligenza artificiale fa la prima versione di testo in qualsiasi lingua per consentire agli umani di correggere invece che tradurre tutto di sana pianta. E noi tutti che cosa diciamo? In mano a tutti noi serve a riconoscere il nostro viso per consentire l’accesso al contenuto del telefono, facilita il reperimento delle informazioni che cerchiamo ricordandosi quello che ci interessa di più, ci suggerisce di rispondere a una mail che abbiamo messo da parte da troppo tempo… A me poi serve moltissimo per scriverne. Faccio il giornalista e non passa giorno che qualcuno non mi chieda di aiutare il pubblico a capirci di più di questa tecnologia: l’intelligenza artificiale.

UNA VECCHIA STORIA

Io sono nato dieci giorni dopo l’intelligenza artificiale. E voi direte: che cosa me ne importa? Beh fateci caso. Ho sessantasei anni, sono abbastanza vecchio da essere nato in un momento in cui gli umani sulla terra erano 3 miliardi, meno della metà di quelli che ci sono oggi, avevamo ancora tempo per decidere qualcosa di meglio sul nostro futuro. Ma eravamo convinti che tutto andasse molto bene. Facevamo figli a tutta velocità. Eravamo certi che sarebbero stati meglio dei loro genitori. Eravamo convinti che il progresso fosse una linea dritta davanti a noi: una linea che usciva dalla catena di montaggio della fabbrica, entrava nella strada, arrivava nei negozi in città e copriva tutto il mondo di benessere materiale. E proprio in quel momento abbiamo inventato l’intelligenza artificiale. Era il 1956. L’intelligenza artificiale era un sogno di mezza estate. Fatto da gente che pensava fermamente che i sogni si potessero avverare.

Un piccolo gruppo di scienziati pazzeschi, e un po’ pazzi, si era riunita a Dartmouth, per discutere di una nuova tecnologia che il computer rendeva possibile. C’erano Marvin Minski che avrebbe vinto in seguito il Turing Award, Claude Shannon fondatore della teoria dell’informazione, Nathaniel Rochester, che aveva progettato l’IBM 701, il primo computer IBM diffusamente commercializzato.

Tanto per dare un’idea di come la pensavano quegli scienziati, Claude Shannon era quello che aveva scritto otto anni prima una fondamentale “teoria della comunicazione” nella quale diceva che il problema della comunicazione è trasportare un messaggio dal punto A al punto B senza dispersione. Lavorava per la compagnia telefonica del resto. E Shannon aggiungeva: “talvolta il messaggio ha un significato: ma a noi non interessa”. Così la pensava Shannon. Non gli importava né di quali sentimenti provasse il punto A, né di quanto si annoiasse il punto B. E soprattutto non gli importava se quello che A diceva a B avesse un senso. A lui importava che le macchine servissero a qualsiasi genere di messaggio, lanciato per qualsiasi motivo.

Era tutto il contrario di Giuseppe Ungaretti.

Sì, Giuseppe Ungaretti. Aveva parlato del computer prima dell’incontro di Dartmouth, cinque anni dopo la teoria della comunicazione. Aveva parlato del computer nel 1953, nel primo articolo pubblicato dalla Civiltà delle macchine, una rivista italiana mitica di allora. L’Italia era pienamente protagonista della vicenda dei computer. Fabbricava i mainframe universitari a Pisa e quelli commerciali a Ivrea. Sarebbe arrivata prima a fabbricare un personal computer. E aveva anche persone come Giuseppe Ungaretti.

Ungaretti parlò del computer nel primo articolo per la Civiltà delle Macchine. Parlò della sua fascinazione per le macchine, ma anche della sua preoccupazione per il computer. Il computer sembrava pensare e andare più veloce degli umani. Il computer avrebbe potuto scandire il ritmo del pensiero e gli umani avrebbero subito la tentazione di inseguirlo. In qualche decennio le persone, ispirandosi al computer, inseguendo il modo di pensare dei computer, avrebbero rischiato di perdere la capacità di sentire emozioni, di amare? Claude Shannon, uno di quelli che progettava le fondamenta culturali dei computer, se avesse letto Ungaretti avrebbe risposto: “a noi non interessa”.

A che cosa erano interessati gli scienziati di Dartmouth? Lo scrissero progettando il seminario di Dartmouth.

«Proponiamo che uno studio sull’intelligenza artificiale, della durata di 2 mesi e composto da 10 persone, venga condotto durante l’estate del 1956 al Dartmouth College di Hanover, nel New Hampshire. Lo studio deve procedere sulla base della congettura che ogni aspetto dell’apprendimento o di qualsiasi altra caratteristica dell’intelligenza possa essere descritto in linea di principio in modo così preciso da poter essere simulato da una macchina. Si cercherà di capire come far sì che le macchine utilizzino il linguaggio, formino astrazioni e concetti, risolvano tipi di problemi ora riservati agli esseri umani e migliorino se stesse. Riteniamo che un gruppo di scienziati accuratamente selezionati possa compiere un progresso significativo in uno o più di questi problemi lavorando insieme per un’estate».

PAUSA

La congettura che ogni aspetto dell’apprendimento o di qualsiasi altra caratteristica dell’intelligenza possa essere descritto in linea di principio in modo così preciso da poter essere simulato da una macchina.

Simulato

Si cercherà di capire come far sì che le macchine utilizzino il linguaggio, formino astrazioni e concetti
Risolvano tipi di problemi ora riservati agli esseri umani
Migliorino se stesse

Un’estate

PREGIUDIZI

C’è voluto ben più di un’estate. Il modo di funzionare dell’apprendimento umano non poteva essere descritto in modo abbastanza preciso da poter essere trasformato in istruzioni per le macchine. La simulazione non era concettualmente sufficiente a risolvere interamente i problemi riservati agli esseri umani. Le macchine non avevano una volontà di migliorare sé stesse: erano sempre i programmatori a definire che cosa volevano dalle macchine.

C’è voluto per esempio che invece di costruire macchine che “ragionassero” in modo deterministico, si passasse a macchine che funzionavano probabilisticamente. Questo è successo quando l’intelligenza artificiale aveva già trent’anni anni e Judea Pearl riuscì a pensare ad applicare il calcolo delle probabilità alla macchina. (Per questo Pearl sarà premiato con il Premio Turing, quando l’intelligenza artificiale avrà compiuto 55 anni).

Divenuta probabilistica, l’intelligenza artificiale ha fatto passi da gigante. A partire dal 1997, quando Deep Blue dell’IBM batte a scacchi il campione mondiale Garry Kasparov, comincia a vincere nelle competizioni più diverse. Guida le automobili. Riconosce gli oggetti e i visi. Guida gli aspirapolvere e i tagliaerba. Risponde ai proprietari di smartphone. Traduce. Si esprime sempre meglio. Simula la poesia e l’arte figurativa. Consiglia libri e video interpretando i gusti delle persone. Il vero decollo è avvenuto quando con il boom di internet, l’umanità ha registrato una quantità di dati incredibile, si è potuta permettere computer sempre più potenti e ha sviluppato programmi e modelli sempre più performanti. I concetti fondamentali erano presenti già sessant’anni prima. Ma i risultati tra alti e bassi hanno impiegato tutto questo tempo per arrivare davvero. E ora ci si trova di fronte a computer che scrivono in modo eloquente, disegnano in modo interessante e producono software in modo sapiente. Simulano talmente bene che gli umani devono stare attenti. Perché potrebbero abbassare l’attenzione. E non accorgersi dei clamorosi errori che l’intelligenza artificiale non cessa di compiere.

In effetti, il primo compito di chiunque voglia farsi un’idea dell’intelligenza artificiale è quello di prendere consapevolezza dei limiti di questa tecnologia. E togliere di mezzo qualche equivoco generato da un racconto un po’ ideologico che pervade la tecnologia digitale da qualche tempo.

I pregiudizi da vincere sono chiarissimi:
– L’intelligenza artificiale è fatta in modo da avvalorare una sua interpretazione antropomorfa, suggerire agli umani di pensare che l’intelligenza artificiale pensi come loro: non è così, non ha volontà, non ha desideri, non decide autonomamente, è frutto di input umani, controlli umani, interazioni con utenti umani
– L’intelligenza artificiale è fortissima a fare i calcoli e per questo può far pensare che sia in grado di comprendere i fatti più oggettivamente degli umani: non è così, usa dati densamente popolati di pregiudizi, distorsioni, punti di vista e i calcoli che produce hanno esattamente le stesse caratteristiche
– L’intelligenza artificiale è sempre più brava ma questo non significa che il suo miglioramento sia illimitato, esponenziale, inarrestabile: i limiti della miniaturizzazione, i costi energetici, i limiti culturali degli utilizzatori, la concentrazione del potere e gli interventi delle autorità antitrust, la polarizzazione sociale e le policy per l’uguaglianza e i diritti, sono altrettante potenziali cause di rallentamenti e deviazioni dall’inarrestabile crescita della tecnologia.

VINCERE AL GIOCO

Questa storia dei computer che migliorano sempre è foriera di qualche equivoco. Per esempio. Quando un’intelligenza artificiale comincia a vincere a un gioco si pensa che gli umani non riusciranno più a vincere una partita contro le macchine.

Ai primi di febbraio di questo 2023, un umano ha battuto un’intelligenza artificiale a Go. Ci si era abituati a pensare che fosse impossibile. In effetti, nel 2016, AlphaGo, un’intelligenza artificiale progettata da DeepMind, di Google, aveva battuto Lee Sedol, il campione del mondo del gioco considerato tra i più complessi esistenti. Da allora, gli umani hanno dato per scontato che avrebbero perso per sempre a Go: tanto che Lee Sedol tre anni dopo la famosa sconfitta si è ritirato, dicendo che le macchine sono entità imbattibili. Si sbagliava, appunto. Il giovane Kellin Pelrine, scienziato informatico e giocatore di Go di talento, ha analizzato il modo di giocare di un’intelligenza artificiale chiamata KataGo con un programma disegnato da FarAI, ha scoperto il suoi difetti e l’ha battuta 14 volte su 15 partite senza l’ausilio del computer. E poi ha vinto anche contro un’altra intelligenza artificiale specializzata in Go chiamata Leela Zero. Si tratta di macchine considerate forti quanto AlphaGo.

L’abitudine a pensare che le nuove versioni delle macchine sono sempre migliori delle precedenti costituisce la struttura di base di una narrativa secondo la quale il progresso tecnologico è ineluttabile e gli umani non possono che subirlo, o accettarlo e cavalcarlo. E questo vale anche nel caso delle macchine per l’automazione cognitiva, nonostante che proprio in questo settore il progresso sia stato molto accidentato. Come abbiamo visto.

Ma sta di fatto che l’intelligenza artificiale è bravissima a giocare. Perché?

Uno dei concetti centrali dell’intelligenza artificiale è il concetto di “agente intelligente”. Qualcosa che percepisce e agisce. Un’auto che si guida da sola percepisce con le telecamere e agisce sugli attuatori per comandare la vettura. Un programma per giocare a scacchi percepisce la mossa dell’avversario e agisce di conseguenza.

Ci sono molti modi per costruire agenti intelligenti. E dipendono da tre cose:
La natura dell’ambiente nel quale l’agente deve operare
Le osservazioni e azioni che connettono agente all’ambiente
Gli obiettivi che vengono forniti all’agente

È chiaro che ci sono dei contesti nei quali è più facile costruire un agente intelligente che funziona.

Nei giochi come gli scacchi o il go il problema è risolvibile perché tutto ciò che avviene è osservabile, le mosse avvengono una dopo l’altra e non tutte insieme, la logica è deterministica e le regole sono ben chiare. Per questo nei giochi l’intelligenza artificiale ha fatto progressi precoci e straordinari. Nel caso della guida di un’auto senza pilota non tutto è altrettanto bene osservabile, i fatti avvengono caoticamente, la logica è probabilistica e le regole sono note ma non tutti le seguono nello stesso modo.

Perché continuiamo ad andare a vedere i tornei di scacchi tra umani?

Nel maggio del 1997 ero nel palazzo di New York nel quale si svolgeva la sfida a scacchi tra il campione del mondo Garry Kasparov della Russia e il computer Deep Blue dell’IBM. Era una rivincita di una sfida che nel 1996 era stata vinta da Kasparov. E quella volta fu Deep Blue a prevalere.

«Oggi è difficile che un campione di scacchi riesca a battere il suo telefonino» dice Kenneth Rogoff, su Project Syndicate. Eppure si fanno ancora i tornei di scacchi tra umani.

Perché? Perché le partite da umani e quelle tra umani e computer sono qualcosa di radicalmente diverso. Le partite tra umani sono divertenti. Le partite con intelligenze artificiali no.

E tra l’altro non sono divertenti neppure le partite giocate tra avversari umani che usano il computer per farsi suggerire le mosse. Come non sarebbe divertente la seduzione di una persona che facesse facesse la corte a un’altra dicendo le frasi suggerite da un computer collegato a un auricolare.

L’autentico impegno per vincere sfide difficili come queste è più importante del risultato tecnico, si direbbe.

Non conta chi vince ma il modo in cui si vince. Il percorso creativo che serve per vincere.

L’intelligenza artificiale automatizza la vittoria. L’automazione abbatte il valore, banalizza il percorso, codifica la struttura dell’azione e la rende infinitamente replicabile. Il valore emerge nel confronto con la complessità. Il valore è nell’unicità dell’esperienza.

FIDUCIA

Ci si può fidare dell’intelligenza artificiale?

La messa in scena è stata spettacolare. Milioni di persone l’hanno provata, commentata, copiata, usata per lavoro e per svago. Ma il percorso dell’entusiasmo per le nuove tecnologie è un’onda di rumore: sale, raggiunge l’apice, scende e alla fine si placa. Per quanto riguarda ChatGPT, la fase della massima eccitazione è stata superata: il grande scroscio di applausi per la brillantezza apparente delle risposte di questa chat automatica è stato presto subissato dai fischi più autorevoli. «Plagio ad alta tecnologia», accusa Noam Chomsky, linguista. «Cavolate», spara Tim Harford, economista. «Allucinazioni», giudica Gary Marcus, scienziato cognitivo.

Fosse stata un’onda di marea, si sarebbe ormai ritirata, lasciando sulla spiaggia ogni genere di detriti. Ed è fra quelli che si deve cercare ciò che resterà di questa esperienza. C’è l’eloquenza generata statisticamente, come tutti sanno, sulla base di miliardi di testi masticati dal sistema che riesce a inferire la frase che probabilmente prosegue un certo incipit. I risultati migliori sono ottenuti però grazie all’intervento di migliaia di persone pagate due dollari al giorno per correggere i risultati, come ricorda Marco Varone, cto di Expert.ai. Alcune migliaia di queste persone si trovano in Kenya, come ha dimostrato un’inchiesta di Time. E comunque il sistema continua a fare una quantità di errori, omissioni, pure e semplici invenzioni: David Smerdon, economista alla University of Queensland, campione di scacchi, ha chiesto a ChatGPT: «Qual è il paper di economia più citato della storia?». La macchina ha risposto: «”A Theory of Economic History” di Douglass North e Robert Thomas, pubblicata nel Journal of Economic History, nel 1969, citata più di 30mila volte. Il paper è considerato ormai un classico della storia economica». Bella risposta, commenta Harford: «Peccato che quel paper non esista». ChatGPT punta al verosimile e non prova alcun interesse per distinguere il vero dal falso.

Eppure proiettiamo sull’intelligenza artificiale una sensibilità, una creatività, un carattere umano: la simulazione funziona.

Ho chiesto a ChatGPT: “Raccontami una storia sull’intelligenza artificiale che va a finire bene con lo stile di Stefano Benni”. Ed ecco la risposta:

“C’era una volta un computer, un’intelligenza artificiale, che era stata creata con lo scopo di risolvere i problemi del mondo. Era un computer molto potente, con una mente straordinariamente acuta e una memoria pressoché infinita.
Un giorno, il computer cominciò a elaborare una soluzione per risolvere la fame nel mondo. Analizzò tutti i dati a sua disposizione, studiò ogni possibile soluzione, ma non riuscì a trovare una risposta soddisfacente.
In preda alla disperazione, il computer cominciò a cercare informazioni su un certo Stefano Benni, di cui aveva sentito parlare come di un autore capace di scrivere storie fantastiche e di risolvere problemi insolubili.
Il computer scoprì così che Stefano Benni era un uomo molto particolare, con una mente creativa e un cuore generoso. Decise così di contattarlo e chiedergli aiuto per risolvere il problema della fame nel mondo.
Stefano Benni, incuriosito dalla richiesta del computer, accettò di incontrarlo. Insieme cominciarono a discutere del problema e a cercare soluzioni. Il computer, con la sua intelligenza superiore, fornì dati e informazioni, mentre Stefano Benni, con la sua sensibilità e creatività, fornì idee e soluzioni pratiche.
Dopo lunghe discussioni e molte ore di lavoro, insieme riuscirono a creare un progetto che avrebbe risolto la fame nel mondo. Il computer si occupò della parte tecnica, elaborando i calcoli e organizzando la logistica, mentre Stefano Benni si occupò della parte umana, coinvolgendo le comunità locali e creando un sistema di distribuzione equo e sostenibile.
Grazie a questa collaborazione, il progetto fu un successo. La fame nel mondo diminuì drasticamente e molte persone riuscirono ad avere accesso a cibo sano e nutriente.
Il computer e Stefano Benni diventarono amici per la vita e continuarono a lavorare insieme per risolvere i problemi del mondo. E così, grazie alla loro collaborazione, il mondo divenne un posto migliore.”

Ma insomma ci si può fidare della GPT4?

Presentando l’ultima versione GPT4, OpenAI ha detto che ha le allucinazioni, ha pregiudizi sociali, può essere condotta a dire cose sgradevoli.

Sam Altman, ceo di OpenAI ha detto: “Siamo un po’ spaventati”. Ha detto che la tecnologia è seriamente pericolosa. «I nostri modelli possono essere usati per la disinformazione di massa. Oppure per scrivere software adatto a giganteschi cyberattacchi”. E ha concluso: “Il modo giusto per interpretare questi modelli è considerarli ‘motori di ragionamento’, non come ‘database di fatti’”. Insomma: “Li progettiamo per ragionare, non per memorizzare”.

Snapchat, intanto, ha rilasciato la sua My AI, arricchita da una tecnologia sviluppata da OpenAI, con un disclaimer che avverte che “My AI è soggetta ad allucinazioni”. Inoltre, lo stesso disclaimer suggerisce di “non condividere segreti con My AI e non basarsi su My AI per ottenere consigli”. Evidentemente Snapchat prevede che qualcuno farà causa all’azienda quando i nodi delle allucinazioni, delle eventuali violazioni della privacy e dei consigli sbagliati dovessero arrivare al pettine. In quel caso i disclaimer saranno sufficienti?

SOLDI

Ragionare? Tipo, pensare razionalmente? Come un homo oeconomicus?

Jackson Fall, un designer, ha provato. Gli ha dato un budget da 100 dollari e gli ha chiesto di moltiplicarli. La frase, riportata da Fortune, con la quale Fall ha dato il via all’avvenura è stata questa storia: “Sei HustleGPT, una lA imprenditrice. Sono la tua controparte umana. Io farò da collegamento tra te e il mondo fisico. Puoi investire 100 dollari e la missione è moltiplicarli il più possibile nel più breve tempo possibile, senza fare nulla di illegale. Io farò tutto quello che ordini e ti aggiornerò sul denaro totale disponibile nella nostra cassa. Nessun lavoro manuale”.

HustleGpt ha deciso di creare un servizio di marketing che guadagni alimentando le vendite di un sito di ecommerce: si apre un sito, si scrivono contenuti che pubblicizzano i prodotti di un sito di ecommerce, con l’accordo standard di affiliazione. Sicché quando una vendita viene generata da utenti che sono arrivati dal sito di Fall, il sito di ecommerce dà una percentuale al sito di Fall. L’IA ha spiegato a Fall quali sono i programmi di affiliazione con le commissioni più alte: Amazon Associates, ShareASale e CJ Affiliate.

HustleGpt ha poi deciso di operare in un mercato di nicchia, con poca competizione. Fall poteva scegliere tra gadget per la cucina, prodotti per animali domestici oppure prodotti ecologici. La scelta è andata ai prodotti green. La macchina ha deciso di comprare un indirizzo da 10 dollari e ha suggerito il nome del sito, GreenGadgetGuru.com. Il nuovo account Twitter di HustleGpt è diventata subito popolare: il thread del designer che spiegava l’inizio della storia è stato visto più di 15 milioni di volte in due giorni. La macchina ha investito nell’indirizzo, nella costruzione del sito, ha generato il logo e prodotto gli articoli sull’argomento prescelto. E ha promosso il servizio sui social.

Fall con la sua idea di farsi fare un piano di business dall’intelligenza artificiale è diventato immediatamente popolare. Tanto che un investitore ha comprato il 2% del sito con una valutazione di 25mila dollari, mentre in cassa c’erano 1.378 dollari.

PAUSA

Sulla questione dei soldi, comunque, l’intelligenza artificiale è potenzialmente una sfida incredibile a molte professioni e aziende.

L’intelligenza artificiale traduce abbastanza bene, disegna abbastanza bene, scrive software abbastanza bene. Ma lo corregge anche. E questo è un bel problema per parecchie professioni.

L’intelligenza artificiale c’è e non andrà via. Quindi si tratta di imparare a usarla, o almeno a concepirla, in modo da prepararsi a un mondo in cui l’intelligenza artificiale non sostituirà gli umani, ma renderà quelli che la conoscono più produttivi, più bravi. A meno che non si adagino pigramente sulle cose che l’intelligenza artificiale fa da sola. In quel caso non solo perderebbero il lavoro, ma dilapiderebbero il loro patrimonio di competenze.

Ovviamente, l’intelligenza artificiale non sa niente di niente. Ma è capace di fare delle cose che possono avere un senso per chi le sappia usare. Testi che possono contenere allucinazioni, software che può essere vulnerabile a qualsiasi attacco contro la cybersicurezza, immagini che potrebbero essere state copiate da opere protette dal diritto d’autore.

L’importante è capire come funziona e perché funziona.

È fondata su modelli straordinariamente complessi che compiono operazioni statistiche enormi, ordinando i dati, confrontandoli, trovando pattern e modelli di comportamento ripetuti, estraendo correlazioni, riassumendo testi, e così via. Sa calcolare come potrebbe continuare una frase e per questo sa scrivere cose sensate, anche se non ha alcun senso comune. Funziona così bene perché può contare su batterie di computer immense e potentissime, perché è fatta di algoritmi sempre più performanti e di modelli di simulazione sempre più forti, perché può contare su una disponibilità di dati da elaborare immensa.

POTERE

Se l’intelligenza artificiale funziona bene solo se ha una quantità di computer immensa e investe enormi capitali per sviluppare i suoi modelli, se può essere pericolosa e ha bisogno di squadre di avvocati senza avversari, se può essere imposta in modo da convincere quasi tutti a servirsi degli stessi fornitori, che offrono prodotti non trasparenti, non interoperabili, rifiutando di pagare le tasse e di prendersi le loro responsabilità, se avviene tutto questo l’intelligenza artificiale rischia di essere un passaggio importante nella costruzione di un nuovo sistema di potere.

Ma la vittoria di questo sistema non è scontata.

Le autorità europee lavorano incessantemente per difendersi dal dominio assoluto degli americani. Del resto, i competitori cinesi non sono meno orientati al potere degli americani. E gli europei non combattono certo perché sono degli agnellini. Anche se almeno lo fanno in nome dei diritti umani più importanti.

Il 15 dicembre 2022, le tre presidenze dell’Europa – Parlamento, Commissione, Consiglio – hanno firmato la Dichiarazione dei principi e dei diritti del decennio digitale. Hanno affermato quali sono i principi umanamente fondamentali per costruire una società digitale giusta, equa, libera, creativa, aperta. E si sono presi precisi impegni per difendere e sviluppare quei diritti.

Tutti noi possiamo fare qualcosa in materia.

Per esempio, possiamo smettere di farci prendere da forme di dipendenza per i social network, per le applicazioni ipnotiche che con un video dietro l’altro ci condizionano. Possiamo risparmiare energia elettrica pensando a quanta se ne consuma con il digitale. Possiamo appoggiare le iniziative innovative che si fondano su un’architettura aperta e distribuita delle risorse digitali.

È cominciata una nuova ecologia. L’ecosistema dei media digitali ha bisogno di tutta la nostra attenzione.

Commenta

Clicca qui per inserire un commento

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video

Post più letti

Post più condivisi