OmniRad: Радиологическая базовая модель для многозадачного анализа медицинских изображений
OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis
February 4, 2026
Авторы: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto
cs.AI
Аннотация
Радиологический анализ все чаще использует преимущества предварительно обученных визуальных представлений, способных поддерживать гетерогенные последующие задачи в различных методах визуализации. В данной работе мы представляем OmniRad — самообучаемую радиологическую базовую модель, предварительно обученную на 1,2 миллиона медицинских изображений, разработанную с учетом принципов, вдохновленных радиологией, которые подчеркивают повторное использование представлений и межзадачную переносимость. Мы оцениваем предварительно обученный энкодер в нескольких режимах адаптации для последующих задач, включая легковесные адаптеры для конкретных задач с замороженной основной архитектурой, а также полную сквозную тонкую настройку для классификации, что позволяет оценить как качество представлений, так и производительность для конкретных задач. OmniRad тестируется на широком наборе публичных бенчмарков, охватывающих классификацию и сегментацию в различных модальностях. В коллекции MedMNISTv2 OmniRad улучшает F1-меру классификации до 2,05% по сравнению с конкурирующими базовыми моделями. Для задач плотного прогнозирования OmniRad демонстрирует улучшение среднего показателя Dice в шести наборах данных MedSegBench при использовании замороженных представлений. Качественный анализ и визуализации латентного пространства указывают на улучшенную кластеризацию признаков и разделение по модальностям.
English
Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.