-
E ripeto, genius: ti senti intelligente o rivoluzionario ad aver capito che il marketing esiste? Visto che fai l'informatico, sai cosa sia la Hype Curve di Gartner.
Cercala. Non hai bisogno di convincere qualcuno che ci siano degli hype.
-
@uriel La domanda da chiedersi è "Quando chiedo ad un LLM di spiegarmi i manuali o le statistiche, ho una garanzia che quanto risposto sia veritiero e completo?". E mi dispiace ma la risposta è no. Puoi dirmi che in una certa percentuale di casi l'informazione sia corretta, ma non puoi escludere che non lo sia. E ripeto, se questa cosa impatta la salute delle persone, non può essere derubricata a dei casi minoritari che possiamo ignorare, perché ehi, guarda quanto è figo l'LLM.
-
@uriel In generale il punto principale della discordia sta nell'approccio: tu accetti un errore sistemico, io no. Non significa che le persone siano perfette, anzi, ma faccio molto fatica ad accettare che gli strumenti usati possano creare dei "danni accettabili".
-
e dopo il cherrypicking, lo straw man. Chi ha parlato di accettare rischi, esattamente?
-
Nemmeno questo e' il punto. Nell'uso di cui stiamo parlando parliamo di confrontare la LLM che legge statistiche e un essere umano che legge le medesime statistiche.
E la nuova tecnologia vince, semplicemente quando il cliente - che non e' un fesso - misura con i suoi strumenti aziendali che ha risparmiato soldi e il KPI sono migliorati.
Se vuoi la verita' vai alla facolta' di folosofia, se vuoi la completezza non fai una statistica. Per via della definizione di statistica.
-
@uriel I casi sono duo, o affermi che questa tecnologia sia perfetta, e devi dimostrarmelo, o ti va bene che generi una certa percentuale di errori, in tal caso ne accetti le conseguenze.
-
Straw man. Io sto solo dicendo che sia utile. Fine. Perfetta lo hai messo tu.
E il motivo per il quale siamo pagati e' che il cliente vede i KPI migliorare, e il budget salvo.
Per quanto riguarda gli errori, il fatto che i medici paghino costose assicurazioni non ti suggerisce nulla?
-
@uriel Non è uno straw man, è esattamente il punto su cui siamo in disaccordo XD Ma va bene così, non bisogna per forza essere al 100% d'accordo su una cosa. A te va bene, perché utile, uno strumento che ha un certo grado di errori, io non mi fido soprattutto se fatto sulla mia salute. E non è un errore "alternativo" all'umano che pur commette errori, è un errore indotto dallo strumento, che quindi si aggiunge. Possiamo stimare che i medici sbaglieranno anche a leggere la risposta dell'LLM...
-
@uriel Che poi, sarebbe da vedere anche il genere di errore, non ho dati per dire come è nella realtà, e mi piacerebbe averli, perché non tutti gli errori sono uguali, e sbagliare su un raffreddore non è la stessa cosa che sbagliare su un tumore.
-
sbagliare su un raffreddore non è la stessa cosa che sbagliare su un tumore.
E' da stamattina che mi stai bersagliando di queste mirabolanti scoperte. Si, i medici umani sbagliano anche sui tumori, e per questo pagano costose assicurazioni.
-
Non è uno straw man, è esattamente il punto su cui siamo in disaccordo XD
non puo' essere perche' io non credo sia perfetta. Essendo uno strumento stocastico, e lavorando su dati prodotti da umani, con accuratezza umana, posso predire che sara' migliore, al massimo, del 67% degli operatori umani. Che e' una curva di qualita' gia' consistente, e che fa risparmiare soldi.
E per questo viene comprata.
Non e' che tu compri solo prodotti perfetti, eh.
-
I informapirata.bsky.social@bsky.brid.gy ha condiviso questa discussione
Citiverse è un progetto che si basa su NodeBB ed è federato! | Categorie federate | Chat | 📱 Installa web app o APK | 🧡 Donazioni | Privacy Policy