@uriel Ti prego, leggi quel paper. Parla di performance nel rispondere a dei quiz, non nel curare persone reali. Non è la stessa cosa.
-
-
A dire il vero, parla di knowledge. Ma visto che non credi nella competenza, e speri in un dottore che passi gli esami peggio, ormai la quantita' di esperimenti non si conta, e quello e' solo uno che ho scelto a caso. Se ne vuoi altri, li trovi sotto. Adesso mi mostri i tuoi numeri?
Paper su Nature
"A systematic review and meta-analysis of diagnostic performance comparison between generative AI and physicians"
https://www.nature.com/articles/s41746-025-01543-z
Studio del 2025 che confronta direttamente le prestazioni diagnostiche dell'AI generativa rispetto ai medici
"Artificial intelligence in digital pathology: a systematic review and meta-analysis of diagnostic test accuracy"
https://www.nature.com/articles/s41746-024-01106-8
Meta-analisi che mostra sensibilità media del 96.3% e specificità del 93.3% per l'AI nella patologia digitale, su oltre 152,000 immagini istologiche
Paper su PubMed/PMC
"Artificial intelligence in disease diagnosis: a systematic literature review"
https://pmc.ncbi.nlm.nih.gov/articles/PMC8754556/
Review sistematica sull'uso di machine learning e deep learning per la diagnosi di Alzheimer, cancro, diabete, malattie cardiache croniche, tubercolosi, ictus, ipertensione, malattie della pelle e del fegato
"Perspective of Artificial Intelligence in Disease Diagnosis"
https://pmc.ncbi.nlm.nih.gov/articles/PMC10590060/
Review del 2023 che documenta come le tecnologie diagnostiche basate su AI aiutino i medici a interpretare immagini mediche come raggi X, risonanze magnetiche e TAC, ottenendo diagnosi più rapide e precise
"Diagnostic accuracy of deep learning in medical imaging: a systematic review and meta-analysis"
https://pmc.ncbi.nlm.nih.gov/articles/PMC8027892/
Meta-analisi sulla precisione diagnostica del deep learning nell'imaging medico
"The diagnostic accuracy of deep learning-based AI models in colorectal cancer"
https://pmc.ncbi.nlm.nih.gov/articles/PMC12599673/
Studio del 2025 su modelli AI per la diagnosi del cancro colorettale, con AUC fino a 0.94
Paper su JAMA Network
"Association of Clinician Diagnostic Performance With Machine Learning"
https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2777403
Review sistematica che esamina l'associazione tra l'uso di sistemi di supporto decisionale basati su ML e la performance diagnostica dei clinici
"Measuring the Impact of AI in the Diagnosis of Hospitalized Patients"
https://jamanetwork.com/journals/jama/fullarticle/2812908
Studio del 2023 che mostra come l'accuratezza diagnostica dei medici aumenti del 2.9-4.4% quando supportati da modelli AI
Paper su JMIR
"Assessment of the Diagnostic Performance and Clinical Impact of AI"
https://www.jmir.org/2026/1/e78310
Studio del 2026 con 36 studi analizzati, mostra sensibilità del 95%, specificità del 93% e AUC di 0.98 per i modelli AI, con deep learning significativamente superiore al machine learning tradizionale (AUC: 0.98 vs 0.94)
-
Il paper si riferisce ad una capacita' di superare test di medicina riguardanti la diagnosi. Ma ok, visto che la competenza ti fa schifo, Paper su imaging medico e patologia
"Human–machine partnership with artificial intelligence for chest radiography" (Nature, 2019)
https://www.nature.com/articles/s41746-019-0189-7
L'AI ha dimostrato accuratezza diagnostica superiore rispetto ai radiologi nella diagnosi di polmonite su radiografie toraciche
Il modello combinato AI+umano ha raggiunto la massima accuratezza
"Deep learning model improves radiologists' performance in breast cancer detection" (PMC, 2021)
https://pmc.ncbi.nlm.nih.gov/articles/PMC8742176/
Sensibilità di rilevamento del 94.36%, specificità del 98.07%, con AUC di 0.983 quando i radiologi usavano il modello AI
-
@uriel il paper che hai citato dice proprio il contrario, quello che intendo io. https://www.nature.com/articles/s41746-025-01543-z

-
@uriel per il resto, come avevo già accennato, non ho nulla contro l'uso di modelli di riconoscimento immagini. Quello che critico è l'uso di LLM
-
@uriel sul fatto che ci siano sempre più medici impreparati, sono giustamente preoccupato, ma non credo che la risposta sia delegare tutto ad un LLM
-
@andreabont@m.posterdati.it l' LLM non fa la diagnosi. Di per se' non fa nulla. Se lo metti in un chatboit, ti fa parlare. Blablabloa, non sai come sono fatte le applicazioni degli LLM.
Siete i soliti oscurantisti. Non vedo alcuna differenza tra "sono contro l'uso di LLM' e "sono contro l'uso dei vaccini a RNA".
-
@andreabont@m.posterdati.it cherrypicking. Hai preso la parte del documento che ti fa comodo. Qui spiega con chiarezza che performano quanto un medico medio, e solo gli esperti fanno di meglio.
State facendo una crociata.
Ma quel che e' peggio e' che non sai di cosa stai parlando: il modello di linguaggio di suo non fa niente. Se lo usi attaccato ad un chatbot, ci parli. Se vuoi farci medicina, lo devi mettere prima di qualche altra cosa, che fa la diagnosi.
Cosi' come, se lo metti su un'auto, sta tra te e la IA che guida. Non e' che fai gfuidare l'auto all' LLM. Lo usi per parlare con l'utente.
Veramente, lanti-intellettualismo scientifico di certa sinistra e' abbuttito quanto quello della destra. Non sei molto diverso da Kennedy che lotta contro i vaccini.
-
@uriel così mi offendi. A differenza dei vaccini a mrna, dove l'intera metodologia è sostenuta scientificamente, sia a livello teorico, che a livello sperimentale, il pretendere che un LLM ragioni o sia in qualche modo vicino a AGI, è pura speculazione. Il mio scetticismo dovrebbe essere la base, sono pronto a cambiare idea, ma bisogna mostrare delle evidenze che questi modelli siano davvero intelligenti, non piazzarci "intelligenza" nel nome e pretendere che tutti ci credano.
-
@uriel Ti invito a moderare i toni, e a non assumere il mio orientamento politico che stai dimostrando di non conoscere minimamente. Oltretutto, non usare argomentum ad hominem, contro di me, la mia unica crociata è far capire alle persone cosa sono gli LLM, perché guiderai pure tu l'aluto, ma se LLM ti dice di girare a destra dove non c'è una strada, dovresti almeno sapere come mai ha predetto quei token li, e che di mezzo non c'è una intelligenza, e nemmeno una comprensione.
-
blabla. Se ti offendo e' perche' tu per primo ti sei messo a pontificare su un breve pezzo dell'articolo, proprio sotto i dati.
Sarebbe bello "dimostrare che questi modelli sono intelligenti", se qualcuno dal mondo delle "scienze umanistiche" avesse mai dato una definizione di intelligenza.
Nel frattempo, tutto quello che possiamo fare e' misurare che sono utili.
E gia' arrivare al livello di "esperto", e' utile, visto che normalmente un medico di base di esperienza ne ha pochina. Stiamo livellando la curva di qualita', togliendo il peggio.
In ogni caso, a leggerli bene, tutti gli studi mostrano che sia molto utile, e ripeto utile, quando viene affiancata ad un medico umano. Cioe' che l'uso di umano+AI sia piu' miglioraitivo.
Se poi e' intelligente, sensibile, o la moglie perfetta, frega solo ai crociati. Nel mondo delle applicazioni conta se e' utile.
Vuoi sapere se ragiona? Unisciti ai filosofi, e sbrigatevi con quei panini, che i clienti aspettano.
Quando si parla di nuove tecnologie, l'anti intellettualismo di certa sinistra e' ancora piu' penoso di quello delle destre.
E nessuno, se non a livello di marketing, ha mai affermato che siano "intelligenti". Quello che si dice e' che siano utili. Nessuno paga per l'intelligenza, altrimenti gli intellettuali e gli scienziati sarebbero ricchissimi.
Si paga per l'utilita'.
-
Ok, spiegami bene: cosa sono gli LLM?
In che cosa si differenziano rispetto alla linguistica EBFN , o ai modelli della scuola di Chomsky?
Visto che sei qui a dare lezioni, adesso lo fai. E non ti preoccupare di usare troppi tensori, ti seguo.
-
@uriel No, spiegami tu come salta fuori l'intelligenza da un modello linguistico, sono curioso, e non lo dico in modo ironico. Sono anni che aspetto che qualcuno provi tutti questi claim marketing.
-
Non lavoro nel marketing.
Il mio lavoro e' applicare la AI a modelli industriali, in modo che sia UTILE. E si, e' possibile far dialogare un operatore inesperto con 5000 manuali tecnici, prima che abbia avuto il tempo di leggerli, e fare domande ai manuali. Il che livella la learning curve di nuovi operatori. Dando un sistema del genere come ausilio ad un team di operation, il tempo di onboarding di un operatore cala e si risparmiano soldi.
E' "intelligenza" nel senso platonico del termine? Non frega un cazzo di niente a nessuno. Se e' utile e fa risparmiare soldi, abbiamo il budget per farlo.
Poi, se non ti piace l'etimo di AI, ti unisci agli altri etimologi, e vi sbrigate a servire gli hamburger.
Che io che faccio un lavoro tecnico debba spiegare le tecniche pubblicitarie usate per irretire babbani, per come la vedo io, e' la richiesta piu' stupida e superficiale che ho sentito. Sarebbe come chiedere ad un produttore di auto in che modo la sua automobile di lusso ti rende elegante e popolare e migliora l'aspetto della tua fidanzata.
Ah, non lo fa? Allora la Ferrari fara' proprio schifo. Perche' il marketing e' falso.
E ti senti anche un intelligente investigatore per aver scoperto che il marketing puo' mentire?
-
Non lavoro nel marketing.
Il mio lavoro e' applicare la AI a modelli industriali, in modo che sia UTILE. E si, e' possibile far dialogare un operatore inesperto con 5000 manuali tecnici, prima che abbia avuto il tempo di leggerli, e fare domande ai manuali. Il che livella la learning curve di nuovi operatori. Dando un sistema del genere come ausilio ad un team di operation, il tempo di onboarding di un operatore cala e si risparmiano soldi.
E' "intelligenza" nel senso platonico del termine? Non frega un cazzo di niente a nessuno. Se e' utile e fa risparmiare soldi, abbiamo il budget per farlo.
La cosa che mi innervosisce, pero', e' diversa.
Che io che faccio un lavoro tecnico debba spiegare o rispondere delle tecniche pubblicitarie usate per irretire babbani, per come la vedo io, e' la richiesta piu' stupida e superficiale che ho sentito.
Il marketing e' falso? La pubblicita' esagera? Incredibile. Chi l'avrebbe mai detto! Intendi dire che se cambio sciampo non ho piu' una ventenne bionda sotto la doccia?
E ti senti anche un intelligente investigatore per aver scoperto che il marketing puo' mentire?
-
@uriel Sono un informatico anche io, e per quanto non lavori nel campo IA (nel senso che non costruisco modelli) ho comunque avuto modo di farmi una idea del funzionamento di queste tecnologie. Io non ci vedo intelligenza, e ne deduco che nemmeno tu ce la vedi, e in realtà non la ritieni un attributo rilevante, e solo una bugia del marketing. Benissimo, fin qui possiamo essere d'accordo. [continua]
-
@uriel Ora però viene il punto di cui sopra. Tu usi un LLM per istruire personale, stessa cosa che consigliava il paper in campo medico. Diverso è quando vogliamo usare questa tecnologia per delegare compiti. In quello scenario l'intrinseca inaffidabilità può generare dei problemi, con impatti diversi in base all'ambito. E se un impatto in ambito industriale può dare fastidio solo a qualche manager, un impatto sulla salute delle persone è una cosa da prendere molto più seriamente.
-
L'articolo che hai linkato sulla sanita' italiana mi lascia intendere che questo sia l'obiettivo. Non parla mai di sostituire i medici, a quanto vedo, e parla sempre di affiancarli. Che e' uno dei modi coi quali si puo' descrivere quello che ti ho detto. Un medico puo' letteralmente interrogare in linguaggio naturale le statistiche degli ultimi 50 anni di medicina pubblica italiana.
E onestamente, una cosa che ti dice "guarda che le statistiche mediche degli ultimi 50 anni sembrano indicare questa cosa", cosa che un LLM puo' fare, mi sembra un toccasana.
Io non "istruisco personale", mi limito a renderlo utile prima che abbia finito di leggere il resoconto degli ultimi undicimila ticket degli scorsi cinque anni. L'operatore chiede "cosa consigliano i manuali in questo caso?" e anziche' dover leggere otto ore di manuali, la AI gli dice "secondo il tale manuale, a questa pagina, dovresti fare questo e quello".
Poi, col tempo avra' esperienza, ma per il momento, dall'istante zero, puo' gia' operare con la qualita' di un modello scelto. Che e' comunque una garanzia di qualita'. Il punto e' che parli contro qualcosa senza sapere come si usa. L'articolo che hai postato mi parla di questo uso: il medico chiede cosa consiglia la prassi, anziche' dover leggere gli scorsi 25.000 casi noti. Sei tu che pensi sia un chatbot. La pretesa, poi, che chi lavora come tecnico debba rispondere di tutto quello che dice il marketing quando fa advertising ad un prodotto, e' praticamente offensiva. A meno che tu non ti senta DAVVERO intelligente ad aver scoperto che il marketing esagera il prodotto. Un LLM poteva dirmelo gratis. Oppute potevo chiedere a Gartner, che ogni anno pubblica la Hype curve, e farmelo dire in maniera scientifica.
-
E ripeto, genius: ti senti intelligente o rivoluzionario ad aver capito che il marketing esiste? Visto che fai l'informatico, sai cosa sia la Hype Curve di Gartner.
Cercala. Non hai bisogno di convincere qualcuno che ci siano degli hype.
-
@uriel La domanda da chiedersi è "Quando chiedo ad un LLM di spiegarmi i manuali o le statistiche, ho una garanzia che quanto risposto sia veritiero e completo?". E mi dispiace ma la risposta è no. Puoi dirmi che in una certa percentuale di casi l'informazione sia corretta, ma non puoi escludere che non lo sia. E ripeto, se questa cosa impatta la salute delle persone, non può essere derubricata a dei casi minoritari che possiamo ignorare, perché ehi, guarda quanto è figo l'LLM.
Citiverse è un progetto che si basa su NodeBB ed è federato! | Categorie federate | Chat | 📱 Installa web app o APK | 🧡 Donazioni | Privacy Policy