OmniRad: Ein radiologisches Grundmodell für die Multi-Task-Analyse medizinischer Bilder
OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis
February 4, 2026
papers.authors: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto
cs.AI
papers.abstract
Die radiologische Analyse profitiert zunehmend von vortrainierten visuellen Repräsentationen, die heterogene Downstream-Aufgaben über verschiedene Bildgebungsmodalitäten hinweg unterstützen können. In dieser Arbeit stellen wir OmniRad vor, ein selbstüberwachtes radiologisches Fundamentmodell, das auf 1,2 Millionen medizinischen Bildern vortrainiert wurde und nach radiologisch inspirierten Prinzipien entwickelt wurde, die Repräsentationswiederverwendung und Cross-Task-Übertragbarkeit betonen. Wir evaluieren den vortrainierten Encoder unter verschiedenen Downstream-Anpassungsregimen, einschließlich leichtgewichtiger aufgabenspezifischer Adapter mit eingefrorenem Backbone sowie vollständigem End-to-End-Fine-Tuning für Klassifikation, was uns ermöglicht, sowohl die Repräsentationsqualität als auch die aufgabenspezifische Leistung zu bewerten. OmniRad wird auf einer breiten Palette öffentlicher Benchmarks evaluiert, die Klassifikation und Segmentierung über mehrere Modalitäten hinweg abdecken. Auf der MedMNISTv2-Kollektion verbessert OmniRad den Klassifikations-F1-Score um bis zu 2,05 % gegenüber konkurrierenden Fundamentmodellen. Für dichte Prädiktionen erzielt OmniRad durchschnittliche Dice-Score-Verbesserungen über sechs MedSegBench-Datensätze hinweg bei Verwendung eingefrorener Repräsentationen. Qualitative Analysen und Latent-Space-Visualisierungen deuten auf verbessertes Feature-Clustering und modalitätsbezogene Trennung hin.
English
Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.