Il Garante per la protezione dei dati personali ha chiesto a OpenAI di rispettare le leggi sulla tutela dei dati personali e in particolare sull’accesso dei minori al servizio. OpenAI ha chiuso il servizio in Italia. È urgente valutare se queste decisioni sono proporzionate ai problemi, ma soprattutto è essenziale cogliere l’occasione per rilanciare l’innovazione. Facendo chiarezza tra gli abbagli e le allucinazioni di queste tecnologie. Riporto in fondo i tutti i link per i documenti.
E quindi gli italiani non possono usare ChatGPT né per utilizzi divertenti quanto fuorvianti, come cercare notizie sulle persone, né per lavorare, come risparmiare tempo facendosi elaborare delle routine software.
Abbiamo visto l’incontro di due visioni del mondo inconciliabili.
Il Garante, attraverso la protezione dei dati, protegge le libertà fondamentali delle persone. Un’organizzazione americana che non si preoccupa di spiegare come tratta i dati e che non dice ai minori a che età possono usare il servizio mette a rischio queste libertà, come dice la legge.
OpenAI ha dichiarato di rispettare la legge ma, chiudendo, ha implicitamente ammesso di non esserne poi tanto sicura.
Eppure una buona parte degli italiani che si erano entusiasmati per le prestazioni di ChatGPT, invece di essere grati per questo intervento protettivo, ha protestato contro il Garante e ha spavaldamente fatto sapere che con una VPN riesce comunque ad andare su ChatGPT.
Comprensibile se si pensa che la privacy sia una questione di poco conto. Ma se non lo si pensa, allora questa reazione assomiglia un po’ a quello che fanno coloro che non amano mettersi la cintura di sicurezza: avendo un’automobile che emette un fastidioso segnale ogni volta che si viaggia senza cintura di sicurezza, decidono di agganciarla e collocarla dietro la loro schiena invece che davanti al petto.
Ma ci sono questioni più importanti.
Una frenata nell’utilizzo di questa tecnologia deve essere l’occasione per approfondire e soprattutto per rilanciare l’innovazione, non il suo contrario.
Nello specifico, dovremo capire se il provvedimento e soprattutto le sue conseguenze sono proporzionate al pericolo. L’istruttoria del Garante farà conoscere meglio lo stato della questione. E anche quello che faranno i Garanti degli altri paesi europei. Infine sarà istruttivo sapere che cosa farà OpenAI.
Perché se si tratta di migliorare le note di servizio che avvertono gli utenti su quello che OpenAI fa con i dati personali e che intimano a chi ha meno di 13 anni di accedere, forse la questione si risolverà in fretta. Se invece si tratta di distinguere le informazioni che OpenAI ha raccolto su tutte le persone per addestrare la sua intelligenza artificiale e mettere a disposizione dei cittadini degli strumenti per consentire loro di esprimere un consenso preciso o disporne come ritengono, la questione rischia di andare per le lunghe. E di essere piuttosto profonda. OpenAI probabilmente raccoglie dati durante l’addestramento e l’utilizzo di ChatGPT e non sarà facile distinguere tutto per bene: non è un database.
Nel frattempo, ancora una volta, occorre ricordare alcuni insegnamenti dei primi mesi di utilizzo di questa ChatGPT. Insegnamenti essenziali per cogliere l’occasione di accelerare l’innovazione e non lasciarsi semplicemente colonizzare dalle innovazioni altrui.
1. ChatGPT non è un database, appunto, non è un oracolo, non serve a sostituire Wikipedia. Ha le allucinazioni. Se si chiede a ChatGPT un’informazione di qualsiasi genere può darsi che la risposta sia sorprendentemente eloquente e magari anche esatta ma ci sono ampie possibilità che contenga errori, omissioni e vere e proprie invenzioni. I cittadini devono rendersene conto. Anche per salvaguardarsi dalla circolazione di notizie false su di loro e sui loro concittadini.
2. ChatGPT è fortissima per fare cose utili, come una bozza di software, una routine di utilizzo di qualche applicazione, un sommario di un documento, e così via. Queste cose utili vanno ben chiarite e possono avere conseguenze importanti sul modo di lavorare. Possono aumentare drasticamente la produttività di molte attività nell’economia della conoscenza. Si tratta di imparare a usare creativamente queste tecnologie. I vantaggi potrebbero essere superiori agli svantaggi.
3. C’è un oligopolio delle mega intelligenze artificiali. Le macchine che le fanno andare sono gigantesche. Non se le possono permettere in molti. Sono tutte americane e cinesi. L’Europa ha creato un framework di leggi che protegge i cittadini. Ma non è ancora riuscita a partire da questo framework per far nascere alternative tecnologiche che possano competere con quelle americane e cinesi.
4. La progettazione di macchine che hanno enormi implicazioni sociali e culturali non può più essere limitata alla questione tecnologica. Si devono progettare gli insiemi di relazioni tra umani e macchine in modo che non ci si trovi sempre nella solita situazione per cui le macchine si impongono e gli umani si devono adattare. E neppure si rischi di frenare l’introduzione di nuove soluzioni solo perché non le si capisce.
Attendiamo la prossima puntata. Domani vedremo che cosa faranno le altre autorità garanti per i dati personali in Europa.
Documenti:
La lettera di OpenAI che chiude il servizio – Yahoo
Italy orders ChatGPT blocked citing data protection concerns – TechCrunch
Italian regulators order ChatGPT ban over alleged violation of data privacy laws – The Verge
ChatGPT Is Banned in Italy Over Privacy Concerns – New York Times
Lo stop a ChatGPT, parla il Garante della Privacy: “Davvero dobbiamo scegliere tra progresso, diritti e libertà?” – StartupItalia
ChatGPT Block. Why the Italian Data Protection is wrong – Andrea Monti
Between a rock and a hard place: Elon Musk’s open letter and the Italian ban of Chat-GPT – Luciano Floridi
Foto: “Machine Learning & Artificial Intelligence” by mikemacmarketing is licensed under CC BY 2.0.
Complimenti De Biase, sempre ponderati e saggi i suoi interventi, cogliendo i punti cruciali della questione!
Non sono molto favorevole all’idea di “distruggere tutto e poi valutare le conseguenze”, ma posso comprendere che l’accesso pubblico a ChatGPT sia stato limitato.
Tuttavia, sono preoccupato per l’applicazione Theremino GPT (totalmente No Profit, Open Source e gratuita) che abbiamo sviluppato per aiutare gli anziani e le persone con disabilità a navigare facilmente su Internet utilizzando la tecnologia a cui sono abituati, ovvero la voce. Abbiamo dedicato molto tempo ed energie a questo progetto e sarebbe un peccato se le autorità decidessero di colpire anche noi. Inoltre, molti utenti la stanno già utilizzando con successo, tra cui alcuni non vedenti che la apprezzano in quanto consente loro di accedere facilmente alle informazioni senza dover ricorrere a tastiere e sintetizzatori vocali. Sarebbe una grande delusione per loro se perdessero questa risorsa.
Potresti, per favore, illustrare i possibili rischi che noi, come utilizzatori delle API di OpenAI, potremmo incontrare?