Home » innovazione » Cinque modeste proposte per governare i rischi dell’intelligenza artificiale
innovazione New Crossroads partecipazione perplessità Post

Cinque modeste proposte per governare i rischi dell’intelligenza artificiale

Che fare per affrontare i rischi emergenti con lo sviluppo delle nuove intelligenze artificiali e per cogliere le opportunità che offre? Va detto che altre crisi, come quella del cambiamento climatico, dell’iniquità sociale, della distruzione di biodiversità, appaiono di gran lunga più gravi. Ma gli umani devono decidere insieme per affrontare quelle crisi. E se l’intelligenza artificiale può aiutarli, va alimentata e guidata nella giusta direzione.

Che fare dunque su questi rischi dell’intelligenza artificiale?

Innanzitutto bisogna superare le cortine fumogene del dibattito più rumoroso. L’impressione che si ricava dal comportamento di miliardari e superpagati sviluppatori di intelligenza artificiale che si danno fa dare per realizzare tecnologie molto rischiose e poi avvertono il mondo del pericolo può essere insostenibile. Anche perché è quasi impossibile non immaginare che dietro quella incredibile incoerenza non ci siano precisi interessi.

Indipendentemente da quello che dicono “lorsignori” è assolutamente importante alimentare il dibattito democratico, la diffusione della conoscenza e ogni forma possibile di sostegno per l’informazione pragmatica: proprio perché è assurdo cancellare le opportunità insieme ai rischi occorre riuscire in un processo di innovazione culturale. Cinque proposte sono in fondo a questo post. Un percorso necessario è qui subito sotto.

RISCHI E OPPORTUNITA’. Forse sembra che dei rischi si sappia più che delle opportunità. Non è detto.

1. Definire i rischi. Attualmente non esiste un’intelligenza artificiale in grado di prendere decisioni autonome e di agire indipendemente dagli umani. Ma nelle mani degli umani (o almeno di certi umani), la tecnologia esistente è già molto potente. E pericolosa.

L’intelligenza digitale attuale è in grado di ottenere risultati straordinari per aiutare gli umani nella diagnostica, nella grafica, nelle traduzioni. Ma i rischi sono altrettanto importanti.

– Disinformazione. Già oggi, si può usare l’intelligenza artificiale per sviluppare contenuti informativi ingannevoli, capaci di apparire perfettamente legittimi, contenenti qualsiasi tipo di falsità. La quantità di fake si moltiplicherà inesorabilmente.

– Cybersecurity. Connesso al punto precedente si può osservare un aumento sensibile degli attacchi di fishing e nella produzione di malware. Nella casella di posta possono arrivare newsletter apparentemente interessanti contenenti link pericolosi. Le truffe si moltiplicheranno a loro volta inesorabilmente.

– Odio online. Lo sfruttamento delle controversie in rete si potrà approfondire, analizzando con intelligenze artificiali i motivi di conflittualità e producendo strategie di attacco sempre più precise. Anche qui l’effetto principale potrebbe essere quantitativo.

– Privacy. Secondo alcuni osservatori, le intelligenze artificiali attuali possono essere usate per superare molte barriere esistenti a protezione dei dati personali.

– Allucinazioni e pregiudizi. È totalmente provato che le attuali intelligenze artificiali usate come “oracolo” possono dare informazioni sbagliate, inventate o distorte. Il difetto naturalmente è insuperabile. Ma la loro apparente eloquenza può trarre molte persone in inganno e condurle a fidarsi troppo delle risposte dei modelli linguistici.

– Armi automatiche. L’intelligenza artificiale orientata al problem solving si può applicare in armi di ogni genere che si possono lanciare in territorio nemico con un obiettivo e lasciarle operare senza liimiti allo scopo di massimizzare i danni agli avversari.

– Controllo sociale. Aziende, stati, organizzazioni criminali possono riuscire a sviluppare sistemi che generino forme di controllo sociale molto capillare. È perfettamente possibile che questo avvenga senza la dovuta trasparenza.

2. Lavorare attentamente sulle opportunità. Per ora, i modelli linguistici sembrano particolarmente utili quando sono addestrati su insiemi di dati molto controllati e ben delimitati. In questo modo diventano straordinariamente utili. Gli errori naturalmente vengono limitati. La produttività viene aumentata. La massima efficacia si ottiene quando le persone umane usano le intelligenze artificiali addestrate correttamente in modo consapevole. Se questo avviene in settori in espansione, poi, questo diventa un vantaggio per tutti. Altrimenti si assiste a forme di redistribuzione. Ma i settori in espansione sono molti e soprattutto quelli connessi con la costruzione di nuovi sistemi produttivi sostenibili sono destinati a crescere in modo importante per molto tempo.

3. Proporre soluzioni. La Commissione Europea si sta occupando si produrre un AI Act che potrebbe fare scuola nel mondo. Ma la complessità di quel programma è comunque piuttosto grande. E i compromessi che dovrà fare sono significativi. Alcune proposte radicali devono essere analizzate e discusse. E alla fine di questo post ne raccolgo alcune. Ma prima, occorrono due precisazioni ulteriori.

4. Mantenere le proporzioni. L’intelligenza artificiale generale che supera le capacità umane, ne ragiona sorprendendo gli umani e creando considerazioni inedite, che agisce indipendentemente dagli ordini degli umani per arrivare agli obiettivi e che addirittura sviluppa obiettivi propri, è ancora molto lontana. Concettualmente, non è impossibile che si possa raggiungere, secondo molti osservatori che riflettono sugli sviluppi recenti. La scienza in questo settore sta facendo in effetti passi da gigante. Ma quello che stiamo osservando e testando in questo momento non è nulla del genere. Casomai il problema è che Sam Altman e compagni stanno cercando esplicitamente di generare quel genere di tecnologia. E niente impedisce di pensare che teoricamente riescano comunque a fare qualcosa che possa andare fuori controllo.

5. Conoscere il contesto. Chi sviluppa queste tecnologie oggi opera in un contesto totalmente sregolato, per di più giocando ambiguamente tra scienza, non profit, impresa for profit, con conoscenze piuttosto difficili da interpretare per la maggior parte delle persone, usando sistemi di organizzativi nei quali si sovrappongono remunerazioni molto generose e condizioni di lavoro incredibilmente inique rispettivamente per la progettazione delle innovazioni e per la correzione degli errori o dei difetti: il che significa che gli incentivi che conducono alle scelte di progettazione di queste tecnologie producono un disallineamento tra l’enormità degli investimenti indirizzati ad aumentare la potenza dell’intelligenza artificiale, quindi i suoi rischi, e il minimo impegno dedicato all’allineamento dell’intelligenza artificiale con i valori della sostenibilità sociale, quindi alla ricerca delle opportunità vere. Chi dovrebbe regolare queste attività peraltro opera in un contesto piuttosto lento, poco focalizzato, non necessariamente competente. Gli incentivi dei regolamentatori possono essere influenzati da forme di lobby e di interessi diversi da quelli dei cittadini per i quali dovrebbero lavorare. Le start up, le associazioni non profit, gli scienziati indipendenti, i produttori di soluzioni open source, appaiono piuttosto in difficoltà di fronte alla velocità e profondità delle innovazioni dei pochi oligopolisti produttori di super tecnologie che si sono fatti avanti negli ultimi tempi. I suggerimenti dovrebbero tener conto di tutto questo.

PROPOSTE. Scelgo qui gli argomenti più radicali dei quali ho sentito parlare. Con qualche aggiunta.

A. Ogni prodotto di intelligenza artificiale deve essere dotato di un’etichetta che consenta a chiunque di sapere la sua origine. Il watermarking è una pratica di questo tipo. Ogni oggetto può contenere un richiamo alla filiera di passaggi che hanno condotto a produrlo.

B. Ogni nuovo prodotto dell’intelligenza artificiale deve superare dei test seguendo un processo concordato con agenzie pubbliche dedicate e indipendenti. Lo scopo di questa procedura è impedire l’uscita sul mercato di tecnologie inutilmente pericolose per chi le usa e per gli altri. Nella farmaceutica questa pratica ha condotto a ottimi risultati dal punto di vista dell’innovazione, minimizzando i rischi.

C. La procedura di testing avrà una via privilegiata se i prodotti si presentano come dedicati a svolgere certe funzioni precise, se dimostrano di essere stati addestrati su insiemi di dati controllati e qualitativamente validi, oltre che in formato standard per poter essere verificati da terzi indipendenti. In questi casi, si può prevedere che le fasi di test saranno relativamente veloci.

D. Le procedure di test per le tecnologie generaliste, non trasparenti nel loro funzionamento e nei dati usati per addestrarle, orientate a generare soluzioni imprevedibili e potenzialmente capaci di agire autonomamente dagli umani dovranno restare nella dimensione della ricerca per molto tempo, forse non uscirne mai, oppure farlo solo dopo test estremamente esigenti. Nel caso che alla fine siano portate sul mercato da aziende gigantesche, però, queste tecnologie che si dichiarano orientate all’intelligenza artificiale generale e dunque intrinsecamente capaci di fare cose che non si possono prevedere, i danni sociali, culturali, ecologici eventualmente generati devono essere responsabilità dei produttori: questi devono avere le disponibilità finanziarie necessarie a coprire quei danni. La definizione dei danni dovrà essere compito della magistratura. Start up e piccole imprese potranno ovviamente tentare di innovare anche in questo settore, ma come spesso succede nella farmaceutica, molto probabilmente dovranno allearsi con organizzazioni più grandi per portare i prodotti sul mercato (un’alternativa è la nascita di fondi assicurativi dedicati).

E. I dati sul funzionamento di queste tecnologie, in base a protocolli concordati a livello pubblico, dovranno essere accessibili a scienziati indipendenti che a loro volta dovranno elaborarli per renderli liberamente comprensibili alla popolazione.

F. Il settore pubblico si impegna a moltiplicare gli investimenti in educazione e alfabetizzazione su tutta la filiera dell’intelligenza artificiale.

L’argomento è talmente complesso che non si può evitare di concludere che occorre molto più lavoro per arrivare in fondo con proposte decentemente utili. Queste sono ipotesi. Forse hanno il vantaggio di perseguire l’intento di contenere i rischi senza limitare le opportunità. Probabilmente in alcuni casi hanno lo svantaggio di alimentare il già grande potere delle aziende più grandi: a questo occorre trovare un correttivo, ma senza rinunciare al concetto che le aziende che fanno danni li devono pagare. L’esternalizzazione dei danni ambientali, sociali, culturali non può più essere più consentita (imho).

Qualsiasi suggerimento per migliorare queste proposte, cambiarle radicalmente in modo documentato, discuterle apertamente, è benvenuto. Mi scuso per ogni imprecisione che queste proposte, certamente, contengono.

LINK. La quantità di letture possibili in proposito è enorme. Questa è una minima scelta.

  • “We must slow down the race to God-like AI”, FT
  • AI Act: a step closer to the first rules on Artificial Intelligence, EuroParl
  • Test GPT-4, OpenAI
  • State of AI 2023, Stanford

Foto. “Artificial Intelligence & AI & Machine Learning” by mikemacmarketing is licensed under CC BY 2.0.

2 Commenti

Clicca qui per inserire un commento

  • Ho ben poco da aggiungere a questa analisi tanto puntuale, se non per esprimere forti dubbi sulle possibilità che protocolli di garanzia e controllo sulle IA possano davvero essere adottati.

    In assenza di un accordo davvero globale (risultato secondo me molto difficile da realizzare), c’è il rischio di una “fuga di cervelli” e capitali verso i Paesi più “permissivi”, senza contare il rifiuto dei vari Governi di restare indietro rispetto ai propri rivali geopolitici…

  • Interessanti proposte. In tanti stanno guardando alle regole europee in discussione sull’argomento, mi piacerebbe sapere più in dettaglio cosa propongono. Al momento pochissimi ne parlano…

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video

Post più letti

Post più condivisi