@uriel La domanda da chiedersi è "Quando chiedo ad un LLM di spiegarmi i manuali o le statistiche, ho una garanzia che quanto risposto sia veritiero e completo?". E mi dispiace ma la risposta è no. Puoi dirmi che in una certa percentuale di casi l'informazione sia corretta, ma non puoi escludere che non lo sia. E ripeto, se questa cosa impatta la salute delle persone, non può essere derubricata a dei casi minoritari che possiamo ignorare, perché ehi, guarda quanto è figo l'LLM.
-
-
@uriel In generale il punto principale della discordia sta nell'approccio: tu accetti un errore sistemico, io no. Non significa che le persone siano perfette, anzi, ma faccio molto fatica ad accettare che gli strumenti usati possano creare dei "danni accettabili".
-
e dopo il cherrypicking, lo straw man. Chi ha parlato di accettare rischi, esattamente?
-
Nemmeno questo e' il punto. Nell'uso di cui stiamo parlando parliamo di confrontare la LLM che legge statistiche e un essere umano che legge le medesime statistiche.
E la nuova tecnologia vince, semplicemente quando il cliente - che non e' un fesso - misura con i suoi strumenti aziendali che ha risparmiato soldi e il KPI sono migliorati.
Se vuoi la verita' vai alla facolta' di folosofia, se vuoi la completezza non fai una statistica. Per via della definizione di statistica.
-
@uriel I casi sono duo, o affermi che questa tecnologia sia perfetta, e devi dimostrarmelo, o ti va bene che generi una certa percentuale di errori, in tal caso ne accetti le conseguenze.
-
Straw man. Io sto solo dicendo che sia utile. Fine. Perfetta lo hai messo tu.
E il motivo per il quale siamo pagati e' che il cliente vede i KPI migliorare, e il budget salvo.
Per quanto riguarda gli errori, il fatto che i medici paghino costose assicurazioni non ti suggerisce nulla?
-
@uriel Non è uno straw man, è esattamente il punto su cui siamo in disaccordo XD Ma va bene così, non bisogna per forza essere al 100% d'accordo su una cosa. A te va bene, perché utile, uno strumento che ha un certo grado di errori, io non mi fido soprattutto se fatto sulla mia salute. E non è un errore "alternativo" all'umano che pur commette errori, è un errore indotto dallo strumento, che quindi si aggiunge. Possiamo stimare che i medici sbaglieranno anche a leggere la risposta dell'LLM...
-
@uriel Che poi, sarebbe da vedere anche il genere di errore, non ho dati per dire come è nella realtà, e mi piacerebbe averli, perché non tutti gli errori sono uguali, e sbagliare su un raffreddore non è la stessa cosa che sbagliare su un tumore.
-
sbagliare su un raffreddore non è la stessa cosa che sbagliare su un tumore.
E' da stamattina che mi stai bersagliando di queste mirabolanti scoperte. Si, i medici umani sbagliano anche sui tumori, e per questo pagano costose assicurazioni.
-
Non è uno straw man, è esattamente il punto su cui siamo in disaccordo XD
non puo' essere perche' io non credo sia perfetta. Essendo uno strumento stocastico, e lavorando su dati prodotti da umani, con accuratezza umana, posso predire che sara' migliore, al massimo, del 67% degli operatori umani. Che e' una curva di qualita' gia' consistente, e che fa risparmiare soldi.
E per questo viene comprata.
Non e' che tu compri solo prodotti perfetti, eh.
-
I informapirata.bsky.social@bsky.brid.gy ha condiviso questa discussione
Citiverse è un progetto che si basa su NodeBB ed è federato! | Categorie federate | Chat | 📱 Installa web app o APK | 🧡 Donazioni | Privacy Policy