Citiverse
  • Come funziona e chi c’è dietro l’Intelligenza artificiale che sarà usata dai medici di famiglia

    Senza categoria
    3 35 0

    informapirata.bsky.social@bsky.brid.gyI
    93
    0

    Come funziona e chi c’è dietro l’Intelligenza artificiale che sarà usata dai medici di famiglia Per vedere altri post come questo, segui la comunità @Informatica (Italy e non Italy 😁) (1/2)

  • andreabont@m.posterdati.itA
    26
    0

    @informapirata.bsky.social Quindi prima di andare dal medico bisogna informarsi che non usi l'IA per curarti... Ottimo...

  • uriel@keinpfusch.netU
    20
    0
    @andreabont@m.posterdati.it @informapirata.bsky.social@bsky.brid.gy

    dipende. se il modello e' basato solo su pubblicazioni scientifiche, potrebbe superare in accuratezza il 67% dei medici.

    E comunque la AI te la ritrovi anche dentro le macchine diagnostiche, o credi davvero che le radiografie siano nitide senza una rete neurale che ripulisce i segnali?
  • andreabont@m.posterdati.itA
    26
    0

    @uriel c'è differenza tra una IA usata come riconoscimento immagini, e una specie di LLM pur addestrato solo su paper scientifici. Serve capacità di comprensione e interpretazione dei sintomi e della storia del paziente: cosa che una IA non è in grado di fare, dato che nemmeno comprende cosa gli viene detto. Poi, un medico pessimo può sicuramente delegare e migliorare di qualcosa le sue prestazioni: ma rimane un medico pessimo.

  • uriel@keinpfusch.netU
    20
    0
    Nope. Nei test, queste tecnologie superano il 70% dei medici in accuratezza.

    Siccome la verifica sperimentale vince, la tua teoria e' scorretta.

    https://pmc.ncbi.nlm.nih.gov/articles/PMC12190018/
  • uriel@keinpfusch.netU
    20
    0
    @andreabont@m.posterdati.it

    Nope. Nei test, queste tecnologie superano il 70% dei medici in accuratezza.

    Siccome la verifica sperimentale vince, la tua teoria e' scorretta.

    https://pmc.ncbi.nlm.nih.gov/articles/PMC12190018/

    il problema delle crociate e' sempre un po' quello: non resistono alle verifiche sperimentali, ovvero scientifiche.
  • andreabont@m.posterdati.itA
    26
    0

    @uriel Ti prego, leggi quel paper. Parla di performance nel rispondere a dei quiz, non nel curare persone reali. Non è la stessa cosa.

  • uriel@keinpfusch.netU
    20
    0
    A dire il vero, parla di knowledge. Ma visto che non credi nella competenza, e speri in un dottore che passi gli esami peggio, ormai la quantita' di esperimenti non si conta, e quello e' solo uno che ho scelto a caso. Se ne vuoi altri, li trovi sotto. Adesso mi mostri i tuoi numeri?

    Paper su Nature

    "A systematic review and meta-analysis of diagnostic performance comparison between generative AI and physicians"



    https://www.nature.com/articles/s41746-025-01543-z

    Studio del 2025 che confronta direttamente le prestazioni diagnostiche dell'AI generativa rispetto ai medici

    "Artificial intelligence in digital pathology: a systematic review and meta-analysis of diagnostic test accuracy"



    https://www.nature.com/articles/s41746-024-01106-8

    Meta-analisi che mostra sensibilità media del 96.3% e specificità del 93.3% per l'AI nella patologia digitale, su oltre 152,000 immagini istologiche



    Paper su PubMed/PMC

    "Artificial intelligence in disease diagnosis: a systematic literature review"



    https://pmc.ncbi.nlm.nih.gov/articles/PMC8754556/

    Review sistematica sull'uso di machine learning e deep learning per la diagnosi di Alzheimer, cancro, diabete, malattie cardiache croniche, tubercolosi, ictus, ipertensione, malattie della pelle e del fegato



    "Perspective of Artificial Intelligence in Disease Diagnosis"



    https://pmc.ncbi.nlm.nih.gov/articles/PMC10590060/

    Review del 2023 che documenta come le tecnologie diagnostiche basate su AI aiutino i medici a interpretare immagini mediche come raggi X, risonanze magnetiche e TAC, ottenendo diagnosi più rapide e precise



    "Diagnostic accuracy of deep learning in medical imaging: a systematic review and meta-analysis"



    https://pmc.ncbi.nlm.nih.gov/articles/PMC8027892/

    Meta-analisi sulla precisione diagnostica del deep learning nell'imaging medico



    "The diagnostic accuracy of deep learning-based AI models in colorectal cancer"



    https://pmc.ncbi.nlm.nih.gov/articles/PMC12599673/

    Studio del 2025 su modelli AI per la diagnosi del cancro colorettale, con AUC fino a 0.94



    Paper su JAMA Network

    "Association of Clinician Diagnostic Performance With Machine Learning"



    https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2777403

    Review sistematica che esamina l'associazione tra l'uso di sistemi di supporto decisionale basati su ML e la performance diagnostica dei clinici



    "Measuring the Impact of AI in the Diagnosis of Hospitalized Patients"



    https://jamanetwork.com/journals/jama/fullarticle/2812908

    Studio del 2023 che mostra come l'accuratezza diagnostica dei medici aumenti del 2.9-4.4% quando supportati da modelli AI



    Paper su JMIR

    "Assessment of the Diagnostic Performance and Clinical Impact of AI"



    https://www.jmir.org/2026/1/e78310

    Studio del 2026 con 36 studi analizzati, mostra sensibilità del 95%, specificità del 93% e AUC di 0.98 per i modelli AI, con deep learning significativamente superiore al machine learning tradizionale (AUC: 0.98 vs 0.94)
  • uriel@keinpfusch.netU
    20
    0
    Il paper si riferisce ad una capacita' di superare test di medicina riguardanti la diagnosi. Ma ok, visto che la competenza ti fa schifo, Paper su imaging medico e patologia

    "Human–machine partnership with artificial intelligence for chest radiography" (Nature, 2019)



    https://www.nature.com/articles/s41746-019-0189-7

    L'AI ha dimostrato accuratezza diagnostica superiore rispetto ai radiologi nella diagnosi di polmonite su radiografie toraciche



    Il modello combinato AI+umano ha raggiunto la massima accuratezza



    "Deep learning model improves radiologists' performance in breast cancer detection" (PMC, 2021)



    https://pmc.ncbi.nlm.nih.gov/articles/PMC8742176/

    Sensibilità di rilevamento del 94.36%, specificità del 98.07%, con AUC di 0.983 quando i radiologi usavano il modello AI
  • andreabont@m.posterdati.itA
    26
    0

    @uriel il paper che hai citato dice proprio il contrario, quello che intendo io. https://www.nature.com/articles/s41746-025-01543-z

    Link Preview Image
  • andreabont@m.posterdati.itA
    26
    0

    @uriel per il resto, come avevo già accennato, non ho nulla contro l'uso di modelli di riconoscimento immagini. Quello che critico è l'uso di LLM

  • andreabont@m.posterdati.itA
    26
    0

    @uriel sul fatto che ci siano sempre più medici impreparati, sono giustamente preoccupato, ma non credo che la risposta sia delegare tutto ad un LLM

  • uriel@keinpfusch.netU
    20
    0
    @andreabont@m.posterdati.it l' LLM non fa la diagnosi. Di per se' non fa nulla. Se lo metti in un chatboit, ti fa parlare. Blablabloa, non sai come sono fatte le applicazioni degli LLM.

    Siete i soliti oscurantisti. Non vedo alcuna differenza tra "sono contro l'uso di LLM' e "sono contro l'uso dei vaccini a RNA".
  • uriel@keinpfusch.netU
    20
    0
    @andreabont@m.posterdati.it cherrypicking. Hai preso la parte del documento che ti fa comodo. Qui spiega con chiarezza che performano quanto un medico medio, e solo gli esperti fanno di meglio.

    State facendo una crociata.

    Ma quel che e' peggio e' che non sai di cosa stai parlando: il modello di linguaggio di suo non fa niente. Se lo usi attaccato ad un chatbot, ci parli. Se vuoi farci medicina, lo devi mettere prima di qualche altra cosa, che fa la diagnosi.

    Cosi' come, se lo metti su un'auto, sta tra te e la IA che guida. Non e' che fai gfuidare l'auto all' LLM. Lo usi per parlare con l'utente.

    Veramente, lanti-intellettualismo scientifico di certa sinistra e' abbuttito quanto quello della destra. Non sei molto diverso da Kennedy che lotta contro i vaccini.
  • andreabont@m.posterdati.itA
    26
    0

    @uriel così mi offendi. A differenza dei vaccini a mrna, dove l'intera metodologia è sostenuta scientificamente, sia a livello teorico, che a livello sperimentale, il pretendere che un LLM ragioni o sia in qualche modo vicino a AGI, è pura speculazione. Il mio scetticismo dovrebbe essere la base, sono pronto a cambiare idea, ma bisogna mostrare delle evidenze che questi modelli siano davvero intelligenti, non piazzarci "intelligenza" nel nome e pretendere che tutti ci credano.

  • andreabont@m.posterdati.itA
    26
    0

    @uriel Ti invito a moderare i toni, e a non assumere il mio orientamento politico che stai dimostrando di non conoscere minimamente. Oltretutto, non usare argomentum ad hominem, contro di me, la mia unica crociata è far capire alle persone cosa sono gli LLM, perché guiderai pure tu l'aluto, ma se LLM ti dice di girare a destra dove non c'è una strada, dovresti almeno sapere come mai ha predetto quei token li, e che di mezzo non c'è una intelligenza, e nemmeno una comprensione.

  • uriel@keinpfusch.netU
    20
    0
    blabla. Se ti offendo e' perche' tu per primo ti sei messo a pontificare su un breve pezzo dell'articolo, proprio sotto i dati.

    Sarebbe bello "dimostrare che questi modelli sono intelligenti", se qualcuno dal mondo delle "scienze umanistiche" avesse mai dato una definizione di intelligenza.

    Nel frattempo, tutto quello che possiamo fare e' misurare che sono utili.

    E gia' arrivare al livello di "esperto", e' utile, visto che normalmente un medico di base di esperienza ne ha pochina. Stiamo livellando la curva di qualita', togliendo il peggio.

    In ogni caso, a leggerli bene, tutti gli studi mostrano che sia molto utile, e ripeto utile, quando viene affiancata ad un medico umano. Cioe' che l'uso di umano+AI sia piu' miglioraitivo.

    Se poi e' intelligente, sensibile, o la moglie perfetta, frega solo ai crociati. Nel mondo delle applicazioni conta se e' utile.

    Vuoi sapere se ragiona? Unisciti ai filosofi, e sbrigatevi con quei panini, che i clienti aspettano.

    Quando si parla di nuove tecnologie, l'anti intellettualismo di certa sinistra e' ancora piu' penoso di quello delle destre.

    E nessuno, se non a livello di marketing, ha mai affermato che siano "intelligenti". Quello che si dice e' che siano utili. Nessuno paga per l'intelligenza, altrimenti gli intellettuali e gli scienziati sarebbero ricchissimi.

    Si paga per l'utilita'.

  • uriel@keinpfusch.netU
    20
    0
    Ok, spiegami bene: cosa sono gli LLM?
    In che cosa si differenziano rispetto alla linguistica EBFN , o ai modelli della scuola di Chomsky?

    Visto che sei qui a dare lezioni, adesso lo fai. E non ti preoccupare di usare troppi tensori, ti seguo.
  • andreabont@m.posterdati.itA
    26
    0

    @uriel No, spiegami tu come salta fuori l'intelligenza da un modello linguistico, sono curioso, e non lo dico in modo ironico. Sono anni che aspetto che qualcuno provi tutti questi claim marketing.

  • uriel@keinpfusch.netU
    20
    0
    Non lavoro nel marketing.

    Il mio lavoro e' applicare la AI a modelli industriali, in modo che sia UTILE. E si, e' possibile far dialogare un operatore inesperto con 5000 manuali tecnici, prima che abbia avuto il tempo di leggerli, e fare domande ai manuali. Il che livella la learning curve di nuovi operatori. Dando un sistema del genere come ausilio ad un team di operation, il tempo di onboarding di un operatore cala e si risparmiano soldi.

    E' "intelligenza" nel senso platonico del termine? Non frega un cazzo di niente a nessuno. Se e' utile e fa risparmiare soldi, abbiamo il budget per farlo.

    Poi, se non ti piace l'etimo di AI, ti unisci agli altri etimologi, e vi sbrigate a servire gli hamburger.

    Che io che faccio un lavoro tecnico debba spiegare le tecniche pubblicitarie usate per irretire babbani, per come la vedo io, e' la richiesta piu' stupida e superficiale che ho sentito. Sarebbe come chiedere ad un produttore di auto in che modo la sua automobile di lusso ti rende elegante e popolare e migliora l'aspetto della tua fidanzata.

    Ah, non lo fa? Allora la Ferrari fara' proprio schifo. Perche' il marketing e' falso.

    E ti senti anche un intelligente investigatore per aver scoperto che il marketing puo' mentire?



Citiverse è un progetto che si basa su NodeBB ed è federato! | Categorie federate | Chat | 📱 Installa web app o APK | 🧡 Donazioni | Privacy Policy

Il server utilizzato è quello di Webdock, in Danimarca. Se volete provarlo potete ottenere il 20% di sconto con questo link e noi riceveremo un aiuto sotto forma di credito da usare proprio per mantenere Citiverse.