Home » media » Il problema dell’incompletezza del linguaggio dell’intelligenza artificiale
innovazione media New Crossroads Post ricerche

Il problema dell’incompletezza del linguaggio dell’intelligenza artificiale

In un recente paper si osserva che il grandi modelli linguistici come ChatGPT e simili sono destinati ad avere sempre le allucinazioni.

Il titolo: Hallucination is Inevitable: An Innate Limitation of Large Language Models
Gli autori: Ziwei Xu, Sanjay Jain, Mohan Kankanhalli
L’abstract: Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. (…)

Questi modelli sono più interfacce che motori di ricerca. Fintantoché questi modelli non fanno che estendere il linguaggio per reagire ai promt il loro problema non è tanto epistemologico quanto estetico.

Del resto, i bias dei dati sono altrettanto inevitabili fintantoché non si prendono campioni rappresentativi ma solo grandi insiemi di dati.

I modelli linguistici saranno grandi interfacce. Saranno assistenti. Ma le persone rischiano di usarle come oracoli. Il rischio è che le persone non si preparino a usare queste tecnologie per quello che sono ma per quello che sembrano.

Commenta

Clicca qui per inserire un commento

Luca De Biase

Knowledge and happiness economy Media and information ecology

Video

Post più letti

Post più condivisi