Articolo interessante, ma ancora la narrazione sugli LLM è troppo distorta e ingannevole, anche su ilPost
Tra i problemi più noti delle intelligenze artificiali c’è il fatto che non si rendano conto di quando non sanno qualcosa, e possano quindi fornire risposte inventate e totalmente assurde come se fossero le più naturali e di buon senso del mondo: il fenomeno delle cosiddette “allucinazioni”
Bisogna fare passare che gli LLM non hanno consapevolezza, e non hanno conoscenza. Non possono sapere né tantomeno inventare alcunché.
Possono solo generare testo che sia il più possibile appropriato al prompt precedente, indipendentemente dal fatto che i contenuti siano veri o falsi