Citiverse
  • andreabont@m.posterdati.itA
    26
    0

    @uriel No, spiegami tu come salta fuori l'intelligenza da un modello linguistico, sono curioso, e non lo dico in modo ironico. Sono anni che aspetto che qualcuno provi tutti questi claim marketing.

  • uriel@keinpfusch.netU
    19
    0
    Non lavoro nel marketing.

    Il mio lavoro e' applicare la AI a modelli industriali, in modo che sia UTILE. E si, e' possibile far dialogare un operatore inesperto con 5000 manuali tecnici, prima che abbia avuto il tempo di leggerli, e fare domande ai manuali. Il che livella la learning curve di nuovi operatori. Dando un sistema del genere come ausilio ad un team di operation, il tempo di onboarding di un operatore cala e si risparmiano soldi.

    E' "intelligenza" nel senso platonico del termine? Non frega un cazzo di niente a nessuno. Se e' utile e fa risparmiare soldi, abbiamo il budget per farlo.

    Poi, se non ti piace l'etimo di AI, ti unisci agli altri etimologi, e vi sbrigate a servire gli hamburger.

    Che io che faccio un lavoro tecnico debba spiegare le tecniche pubblicitarie usate per irretire babbani, per come la vedo io, e' la richiesta piu' stupida e superficiale che ho sentito. Sarebbe come chiedere ad un produttore di auto in che modo la sua automobile di lusso ti rende elegante e popolare e migliora l'aspetto della tua fidanzata.

    Ah, non lo fa? Allora la Ferrari fara' proprio schifo. Perche' il marketing e' falso.

    E ti senti anche un intelligente investigatore per aver scoperto che il marketing puo' mentire?


  • uriel@keinpfusch.netU
    19
    0
    Non lavoro nel marketing.

    Il mio lavoro e' applicare la AI a modelli industriali, in modo che sia UTILE. E si, e' possibile far dialogare un operatore inesperto con 5000 manuali tecnici, prima che abbia avuto il tempo di leggerli, e fare domande ai manuali. Il che livella la learning curve di nuovi operatori. Dando un sistema del genere come ausilio ad un team di operation, il tempo di onboarding di un operatore cala e si risparmiano soldi.

    E' "intelligenza" nel senso platonico del termine? Non frega un cazzo di niente a nessuno. Se e' utile e fa risparmiare soldi, abbiamo il budget per farlo.

    La cosa che mi innervosisce, pero', e' diversa.

    Che io che faccio un lavoro tecnico debba spiegare o rispondere delle tecniche pubblicitarie usate per irretire babbani, per come la vedo io, e' la richiesta piu' stupida e superficiale che ho sentito.

    Il marketing e' falso? La pubblicita' esagera? Incredibile. Chi l'avrebbe mai detto! Intendi dire che se cambio sciampo non ho piu' una ventenne bionda sotto la doccia?

    E ti senti anche un intelligente investigatore per aver scoperto che il marketing puo' mentire?
  • andreabont@m.posterdati.itA
    26
    0

    @uriel Sono un informatico anche io, e per quanto non lavori nel campo IA (nel senso che non costruisco modelli) ho comunque avuto modo di farmi una idea del funzionamento di queste tecnologie. Io non ci vedo intelligenza, e ne deduco che nemmeno tu ce la vedi, e in realtà non la ritieni un attributo rilevante, e solo una bugia del marketing. Benissimo, fin qui possiamo essere d'accordo. [continua]

  • andreabont@m.posterdati.itA
    26
    0

    @uriel Ora però viene il punto di cui sopra. Tu usi un LLM per istruire personale, stessa cosa che consigliava il paper in campo medico. Diverso è quando vogliamo usare questa tecnologia per delegare compiti. In quello scenario l'intrinseca inaffidabilità può generare dei problemi, con impatti diversi in base all'ambito. E se un impatto in ambito industriale può dare fastidio solo a qualche manager, un impatto sulla salute delle persone è una cosa da prendere molto più seriamente.

  • uriel@keinpfusch.netU
    19
    0
    L'articolo che hai linkato sulla sanita' italiana mi lascia intendere che questo sia l'obiettivo. Non parla mai di sostituire i medici, a quanto vedo, e parla sempre di affiancarli. Che e' uno dei modi coi quali si puo' descrivere quello che ti ho detto. Un medico puo' letteralmente interrogare in linguaggio naturale le statistiche degli ultimi 50 anni di medicina pubblica italiana.

    E onestamente, una cosa che ti dice "guarda che le statistiche mediche degli ultimi 50 anni sembrano indicare questa cosa", cosa che un LLM puo' fare, mi sembra un toccasana.

    Io non "istruisco personale", mi limito a renderlo utile prima che abbia finito di leggere il resoconto degli ultimi undicimila ticket degli scorsi cinque anni. L'operatore chiede "cosa consigliano i manuali in questo caso?" e anziche' dover leggere otto ore di manuali, la AI gli dice "secondo il tale manuale, a questa pagina, dovresti fare questo e quello".

    Poi, col tempo avra' esperienza, ma per il momento, dall'istante zero, puo' gia' operare con la qualita' di un modello scelto. Che e' comunque una garanzia di qualita'. Il punto e' che parli contro qualcosa senza sapere come si usa. L'articolo che hai postato mi parla di questo uso: il medico chiede cosa consiglia la prassi, anziche' dover leggere gli scorsi 25.000 casi noti. Sei tu che pensi sia un chatbot. La pretesa, poi, che chi lavora come tecnico debba rispondere di tutto quello che dice il marketing quando fa advertising ad un prodotto, e' praticamente offensiva. A meno che tu non ti senta DAVVERO intelligente ad aver scoperto che il marketing esagera il prodotto. Un LLM poteva dirmelo gratis. Oppute potevo chiedere a Gartner, che ogni anno pubblica la Hype curve, e farmelo dire in maniera scientifica.
  • uriel@keinpfusch.netU
    19
    0
    E ripeto, genius: ti senti intelligente o rivoluzionario ad aver capito che il marketing esiste? Visto che fai l'informatico, sai cosa sia la Hype Curve di Gartner.

    Cercala. Non hai bisogno di convincere qualcuno che ci siano degli hype.
  • andreabont@m.posterdati.itA
    26
    0

    @uriel La domanda da chiedersi è "Quando chiedo ad un LLM di spiegarmi i manuali o le statistiche, ho una garanzia che quanto risposto sia veritiero e completo?". E mi dispiace ma la risposta è no. Puoi dirmi che in una certa percentuale di casi l'informazione sia corretta, ma non puoi escludere che non lo sia. E ripeto, se questa cosa impatta la salute delle persone, non può essere derubricata a dei casi minoritari che possiamo ignorare, perché ehi, guarda quanto è figo l'LLM.

  • andreabont@m.posterdati.itA
    26
    0

    @uriel In generale il punto principale della discordia sta nell'approccio: tu accetti un errore sistemico, io no. Non significa che le persone siano perfette, anzi, ma faccio molto fatica ad accettare che gli strumenti usati possano creare dei "danni accettabili".

  • uriel@keinpfusch.netU
    19
    0
    e dopo il cherrypicking, lo straw man. Chi ha parlato di accettare rischi, esattamente?
  • uriel@keinpfusch.netU
    19
    0
    Nemmeno questo e' il punto. Nell'uso di cui stiamo parlando parliamo di confrontare la LLM che legge statistiche e un essere umano che legge le medesime statistiche.

    E la nuova tecnologia vince, semplicemente quando il cliente - che non e' un fesso - misura con i suoi strumenti aziendali che ha risparmiato soldi e il KPI sono migliorati.

    Se vuoi la verita' vai alla facolta' di folosofia, se vuoi la completezza non fai una statistica. Per via della definizione di statistica.
  • andreabont@m.posterdati.itA
    26
    0

    @uriel I casi sono duo, o affermi che questa tecnologia sia perfetta, e devi dimostrarmelo, o ti va bene che generi una certa percentuale di errori, in tal caso ne accetti le conseguenze.

  • uriel@keinpfusch.netU
    19
    0
    Straw man. Io sto solo dicendo che sia utile. Fine. Perfetta lo hai messo tu.

    E il motivo per il quale siamo pagati e' che il cliente vede i KPI migliorare, e il budget salvo.

    Per quanto riguarda gli errori, il fatto che i medici paghino costose assicurazioni non ti suggerisce nulla?
  • andreabont@m.posterdati.itA
    26
    0

    @uriel Non è uno straw man, è esattamente il punto su cui siamo in disaccordo XD Ma va bene così, non bisogna per forza essere al 100% d'accordo su una cosa. A te va bene, perché utile, uno strumento che ha un certo grado di errori, io non mi fido soprattutto se fatto sulla mia salute. E non è un errore "alternativo" all'umano che pur commette errori, è un errore indotto dallo strumento, che quindi si aggiunge. Possiamo stimare che i medici sbaglieranno anche a leggere la risposta dell'LLM...

  • andreabont@m.posterdati.itA
    26
    0

    @uriel Che poi, sarebbe da vedere anche il genere di errore, non ho dati per dire come è nella realtà, e mi piacerebbe averli, perché non tutti gli errori sono uguali, e sbagliare su un raffreddore non è la stessa cosa che sbagliare su un tumore.

  • uriel@keinpfusch.netU
    19
    0
    sbagliare su un raffreddore non è la stessa cosa che sbagliare su un tumore.
    E' da stamattina che mi stai bersagliando di queste mirabolanti scoperte. Si, i medici umani sbagliano anche sui tumori, e per questo pagano costose assicurazioni.


Citiverse è un progetto che si basa su NodeBB ed è federato! | Categorie federate | Chat | 📱 Installa web app o APK | 🧡 Donazioni | Privacy Policy

Il server utilizzato è quello di Webdock, in Danimarca. Se volete provarlo potete ottenere il 20% di sconto con questo link e noi riceveremo un aiuto sotto forma di credito da usare proprio per mantenere Citiverse.