Home » innovazione » Oggi a Bruxelles: la prima delle cinque proposte per governare i rischi dell’intelligenza artificiale
innovazione media New Crossroads partecipazione perplessità Post

Oggi a Bruxelles: la prima delle cinque proposte per governare i rischi dell’intelligenza artificiale

Nei giorni scorsi abbiamo discusso Cinque modeste proposte per governare i rischi dell’intelligenza artificiale. Oggi a Bruxelles parlano della prima: 

A. Ogni prodotto di intelligenza artificiale deve essere dotato di un’etichetta che consenta a chiunque di sapere la sua origine. Il watermarking è una pratica di questo tipo. Ogni oggetto può contenere un richiamo alla filiera di passaggi che hanno condotto a produrlo.


Oggi Jakob Hanke Vela scrive su Polico che: «Bruxelles vuole evitare che l’intelligenza artificiale confonda i confini tra realtà e finzione e oggi chiederà alle aziende, per la prima volta in assoluto, di proporre un’etichetta per identificare i testi e le immagini generate dall’intelligenza artificiale, allo scopo di combattere la disinformazione» (Politico). Probabilmente, questa richiesta diventerà un obbligo prossimamente.

La disinformazione automatizzata potrebbe riempire i social e il web di qualsiasi cosa. Quantitativamente i fake potrebbero diventare velocemente più numerosi dei messaggi autentici. Etichettare obbligatoriamente i prodotti dell’intelligenza artificiale dovrebbe essere una buona pratica. In quelle etichette, forse, ci potrebbe essere anche un link per una pagina informativa su tutti i passaggi – umani e automatici – fatti da un messaggio prima di arrivare ai nostri occhi. Magari sì.

Ma seguendo questa strada si potrebbe anche chiedere a Bruxelles di chiedere a tutte le piattaforme di foto e video di obbligare chi pubblica immagini a dichiarare nella foto stessa se hanno ritoccato ciò che si vede. Sarebbe enormemente importante per milioni di adolescenti e bambini che sembra stiano sviluppando patologie dovute al confronto con le immagini di corpi perfetti che vedono sui social. Oggi all’esame di Cittadinanza digitale, all’Università di Modena e Reggio Emilia, una candidata ha portato un paper che parla della dismorfofobia (BDD). I numeri sono molto importanti. Le fonti attendibili. Un approfondimento è necessario.

I messaggi online sono prodotti. Dovrebbero avere una forma di tracciabilità del modo in cui sono fatti. Per migliorare la salubrità dei social network e delle comunicazioni digitali. Se sono frutto di intelligenza artificiale lo dovrebbero dichiarare. Se sono immagini ritoccate lo dovrebbero dichiarare in modo evidente.

E poi, nella quantità di fake che comunque ci saranno in giro, sarà importante inventare spazi protetti, nei quali viaggia informazione documentata. Le grandi istituzioni culturali, educative, informative, dovranno occuparsi di questo molto presto. Imho.


Link

AI-generated deepfakes are moving fast. Policymakers can’t keep up, NPR

Can We No Longer Believe Anything We See? NYTimes

The People Onscreen Are Fake. The Disinformation Is Real. NYTimes

Handbook for Journalism Education and Training, UNESCO

Will AI-generated images create a new crisis for fact-checkers? Experts are not so sure, Reuters Institute

Is AI text-to-image technology blurring the lines between fact and fiction? Journalism


Foto: “Fake News – Person Reading Fake News Article” by mikemacmarketing is licensed under CC BY 2.0.

Commenta

Clicca qui per inserire un commento

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video

Post più letti

Post più condivisi