ChatPaper.aiChatPaper

Verbesserung der Anomalieerkennung für Vision-Language-Modelle durch Wissensbeschreibungen

Enhancing Abnormality Grounding for Vision Language Models with Knowledge Descriptions

March 5, 2025
Autoren: Jun Li, Che Liu, Wenjia Bai, Rossella Arcucci, Cosmin I. Bercea, Julia A. Schnabel
cs.AI

Zusammenfassung

Visuelle Sprachmodelle (VLMs) haben beeindruckende Fähigkeiten bei visuellen Verankerungsaufgaben gezeigt. Ihre Effektivität im medizinischen Bereich, insbesondere bei der Erkennung und Lokalisierung von Anomalien in medizinischen Bildern, bleibt jedoch weitgehend unerforscht. Eine große Herausforderung ist die komplexe und abstrakte Natur der medizinischen Terminologie, die es schwierig macht, pathologische Anomaliebegriffe direkt mit ihren entsprechenden visuellen Merkmalen zu verknüpfen. In dieser Arbeit stellen wir einen neuartigen Ansatz vor, um die Leistung von VLMs bei der Erkennung und Lokalisierung medizinischer Anomalien durch die Nutzung von zerlegtem medizinischem Wissen zu verbessern. Anstatt Modelle direkt dazu anzuregen, spezifische Anomalien zu erkennen, konzentrieren wir uns darauf, medizinische Konzepte in grundlegende Attribute und gemeinsame visuelle Muster zu zerlegen. Diese Strategie fördert eine stärkere Ausrichtung zwischen textuellen Beschreibungen und visuellen Merkmalen und verbessert sowohl die Erkennung als auch die Lokalisierung von Anomalien in medizinischen Bildern. Wir evaluieren unsere Methode auf dem 0,23B Florence-2 Basismodell und zeigen, dass sie eine vergleichbare Leistung bei der Verankerung von Anomalien erzielt wie deutlich größere 7B LLaVA-basierte medizinische VLMs, obwohl sie nur mit 1,5 % der für solche Modelle verwendeten Daten trainiert wurde. Experimentelle Ergebnisse demonstrieren zudem die Wirksamkeit unseres Ansatzes sowohl bei bekannten als auch bei zuvor unbekannten Anomalien, was auf seine starken Generalisierungsfähigkeiten hindeutet.
English
Visual Language Models (VLMs) have demonstrated impressive capabilities in visual grounding tasks. However, their effectiveness in the medical domain, particularly for abnormality detection and localization within medical images, remains underexplored. A major challenge is the complex and abstract nature of medical terminology, which makes it difficult to directly associate pathological anomaly terms with their corresponding visual features. In this work, we introduce a novel approach to enhance VLM performance in medical abnormality detection and localization by leveraging decomposed medical knowledge. Instead of directly prompting models to recognize specific abnormalities, we focus on breaking down medical concepts into fundamental attributes and common visual patterns. This strategy promotes a stronger alignment between textual descriptions and visual features, improving both the recognition and localization of abnormalities in medical images.We evaluate our method on the 0.23B Florence-2 base model and demonstrate that it achieves comparable performance in abnormality grounding to significantly larger 7B LLaVA-based medical VLMs, despite being trained on only 1.5% of the data used for such models. Experimental results also demonstrate the effectiveness of our approach in both known and previously unseen abnormalities, suggesting its strong generalization capabilities.

Summary

AI-Generated Summary

PDF132March 6, 2025