Le allucinazioni dell'intelligenza artificiale? Inevitabili
Come spiega il matematico Wei Xing, i framework di valutazione dell’ #IA — inclusi quelli usati da Google e OpenAI — penalizzano l’incertezza.
Un modello che risponde “non lo so” ottiene lo stesso punteggio di uno che sbaglia del tutto.
Risultato: le intelligenze artificiali imparano che è meglio tirare a indovinare che essere oneste.
https://focustech.it/scienza/la-verita-che-chatgpt-non-puo-dire/