ChatPaper.aiChatPaper

SilVar-Med: Een spraakgestuurd visueel taalmodel voor verklaarbare afwijkingendetectie in medische beeldvorming

SilVar-Med: A Speech-Driven Visual Language Model for Explainable Abnormality Detection in Medical Imaging

April 14, 2025
Auteurs: Tan-Hanh Pham, Chris Ngo, Trong-Duong Bui, Minh Luu Quang, Tan-Huong Pham, Truong-Son Hy
cs.AI

Samenvatting

Medische Visuele Taalmodellen hebben groot potentieel getoond in diverse gezondheidszorgtoepassingen, waaronder het beschrijven van medische beelden en diagnostische ondersteuning. De meeste bestaande modellen zijn echter afhankelijk van tekstgebaseerde instructies, wat hun bruikbaarheid in echte klinische omgevingen beperkt, vooral in scenario's zoals chirurgie, waar tekstgebaseerde interactie vaak onpraktisch is voor artsen. Daarnaast ontbreekt het huidige modellen voor medische beeldanalyse meestal aan uitgebreide redeneringen achter hun voorspellingen, wat hun betrouwbaarheid voor klinische besluitvorming vermindert. Gezien het feit dat medische diagnostische fouten levensveranderende gevolgen kunnen hebben, is er een dringende behoefte aan interpreteerbare en rationele medische ondersteuning. Om deze uitdagingen aan te pakken, introduceren we een end-to-end spraakgestuurd medisch VLM, SilVar-Med, een multimodale medische beeldassistent die spraakinteractie integreert met VLMs, en daarmee pionierst in de taak van spraakgebaseerde communicatie voor medische beeldanalyse. Daarnaast richten we ons op de interpretatie van de redenering achter elke voorspelling van medische afwijkingen met een voorgestelde redeneringsdataset. Door uitgebreide experimenten demonstreren we een proof-of-concept studie voor redeneringsgestuurde medische beeldinterpretatie met end-to-end spraakinteractie. Wij geloven dat dit werk het veld van medische AI zal bevorderen door meer transparante, interactieve en klinisch haalbare diagnostische ondersteuningssystemen te stimuleren. Onze code en dataset zijn publiekelijk beschikbaar op SiVar-Med.
English
Medical Visual Language Models have shown great potential in various healthcare applications, including medical image captioning and diagnostic assistance. However, most existing models rely on text-based instructions, limiting their usability in real-world clinical environments especially in scenarios such as surgery, text-based interaction is often impractical for physicians. In addition, current medical image analysis models typically lack comprehensive reasoning behind their predictions, which reduces their reliability for clinical decision-making. Given that medical diagnosis errors can have life-changing consequences, there is a critical need for interpretable and rational medical assistance. To address these challenges, we introduce an end-to-end speech-driven medical VLM, SilVar-Med, a multimodal medical image assistant that integrates speech interaction with VLMs, pioneering the task of voice-based communication for medical image analysis. In addition, we focus on the interpretation of the reasoning behind each prediction of medical abnormalities with a proposed reasoning dataset. Through extensive experiments, we demonstrate a proof-of-concept study for reasoning-driven medical image interpretation with end-to-end speech interaction. We believe this work will advance the field of medical AI by fostering more transparent, interactive, and clinically viable diagnostic support systems. Our code and dataset are publicly available at SiVar-Med.

Summary

AI-Generated Summary

PDF22April 22, 2025