Le allucinazioni dell'intelligenza artificiale? Inevitabili
Come spiega il matematico Wei Xing, i framework di valutazione dell’ #IA — inclusi quelli usati da Google e OpenAI — penalizzano l’incertezza.
Un modello che risponde “non lo so” ottiene lo stesso punteggio di uno che sbaglia del tutto.
Risultato: le intelligenze artificiali imparano che è meglio tirare a indovinare che essere oneste.

La verità che ChatGPT non può dire
Perché risolvere le allucinazioni dell’IA significherebbe ucciderla

FocusTech (focustech.it)