ChatPaper.aiChatPaper

OmniRad: Een Radiologisch Fundamentmodel voor Multi-Task Medische Beeldanalyse

OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis

February 4, 2026
Auteurs: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto
cs.AI

Samenvatting

Radiologische analyse profiteert in toenemende mate van vooraf getrainde visuele representaties die heterogene downstreamtaken kunnen ondersteunen across beeldvormingsmodaliteiten. In dit werk introduceren we OmniRad, een zelf-superviserend radiologisch foundationmodel, vooraf getraind op 1,2 miljoen medische beelden, dat is ontworpen volgens radiologisch geïnspireerde principes die representatiehergebruik en overdraagbaarheid tussen taken benadrukken. We evalueren de vooraf getrainde encoder onder meerdere downstream-aanpassingsregimes, waaronder lichtgewicht taakspecifieke adapters met een bevroren backbone, evenals volledige end-to-end fine-tuning voor classificatie, waardoor we zowel de representatiekwaliteit als de taakspecifieke prestaties kunnen beoordelen. OmniRad wordt geëvalueerd op een breed scala aan publieke benchmarks voor classificatie en segmentatie across meerdere modaliteiten. Op de MedMNISTv2-collectie verbetert OmniRad de classificatie-F1 met tot 2,05% ten opzichte van concurrerende foundationmodellen. Voor dense prediction behaalt OmniRad gemiddelde Dice-scoreverbeteringen across zes MedSegBench-datasets bij gebruik van bevroren representaties. Kwalitatieve analyses en latentieruimtevisualisaties duiden op verbeterde featureclustering en modaliteitsgerelateerde scheiding.
English
Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.
PDF11February 6, 2026