@uriel il paper che hai citato dice proprio il contrario, quello che intendo io. https://www.nature.com/articles/s41746-025-01543-z

@uriel il paper che hai citato dice proprio il contrario, quello che intendo io. https://www.nature.com/articles/s41746-025-01543-z

@uriel per il resto, come avevo già accennato, non ho nulla contro l'uso di modelli di riconoscimento immagini. Quello che critico è l'uso di LLM
@uriel sul fatto che ci siano sempre più medici impreparati, sono giustamente preoccupato, ma non credo che la risposta sia delegare tutto ad un LLM
@uriel così mi offendi. A differenza dei vaccini a mrna, dove l'intera metodologia è sostenuta scientificamente, sia a livello teorico, che a livello sperimentale, il pretendere che un LLM ragioni o sia in qualche modo vicino a AGI, è pura speculazione. Il mio scetticismo dovrebbe essere la base, sono pronto a cambiare idea, ma bisogna mostrare delle evidenze che questi modelli siano davvero intelligenti, non piazzarci "intelligenza" nel nome e pretendere che tutti ci credano.
@uriel Ti invito a moderare i toni, e a non assumere il mio orientamento politico che stai dimostrando di non conoscere minimamente. Oltretutto, non usare argomentum ad hominem, contro di me, la mia unica crociata è far capire alle persone cosa sono gli LLM, perché guiderai pure tu l'aluto, ma se LLM ti dice di girare a destra dove non c'è una strada, dovresti almeno sapere come mai ha predetto quei token li, e che di mezzo non c'è una intelligenza, e nemmeno una comprensione.
@uriel No, spiegami tu come salta fuori l'intelligenza da un modello linguistico, sono curioso, e non lo dico in modo ironico. Sono anni che aspetto che qualcuno provi tutti questi claim marketing.
@uriel Sono un informatico anche io, e per quanto non lavori nel campo IA (nel senso che non costruisco modelli) ho comunque avuto modo di farmi una idea del funzionamento di queste tecnologie. Io non ci vedo intelligenza, e ne deduco che nemmeno tu ce la vedi, e in realtà non la ritieni un attributo rilevante, e solo una bugia del marketing. Benissimo, fin qui possiamo essere d'accordo. [continua]
@uriel Ora però viene il punto di cui sopra. Tu usi un LLM per istruire personale, stessa cosa che consigliava il paper in campo medico. Diverso è quando vogliamo usare questa tecnologia per delegare compiti. In quello scenario l'intrinseca inaffidabilità può generare dei problemi, con impatti diversi in base all'ambito. E se un impatto in ambito industriale può dare fastidio solo a qualche manager, un impatto sulla salute delle persone è una cosa da prendere molto più seriamente.
@uriel La domanda da chiedersi è "Quando chiedo ad un LLM di spiegarmi i manuali o le statistiche, ho una garanzia che quanto risposto sia veritiero e completo?". E mi dispiace ma la risposta è no. Puoi dirmi che in una certa percentuale di casi l'informazione sia corretta, ma non puoi escludere che non lo sia. E ripeto, se questa cosa impatta la salute delle persone, non può essere derubricata a dei casi minoritari che possiamo ignorare, perché ehi, guarda quanto è figo l'LLM.
@uriel In generale il punto principale della discordia sta nell'approccio: tu accetti un errore sistemico, io no. Non significa che le persone siano perfette, anzi, ma faccio molto fatica ad accettare che gli strumenti usati possano creare dei "danni accettabili".
Citiverse è un progetto che si basa su NodeBB ed è federato! | Categorie federate | Chat | 📱 Installa web app o APK | 🧡 Donazioni | Privacy Policy