OmniRad : Un modèle fondamental radiologique pour l'analyse multitâche d'images médicales
OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis
February 4, 2026
papers.authors: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto
cs.AI
papers.abstract
L'analyse radiologique bénéficie de plus en plus de représentations visuelles pré-entraînées capables de prendre en charge des tâches en aval hétérogènes à travers les modalités d'imagerie. Dans ce travail, nous présentons OmniRad, un modèle fondamental radiologique auto-supervisé pré-entraîné sur 1,2 million d'images médicales, conçu selon des principes inspirés de la radiologie qui mettent l'accent sur la réutilisation des représentations et la transférabilité inter-tâches. Nous évaluons l'encodeur pré-entraîné selon plusieurs régimes d'adaptation en aval, incluant des adaptateurs légers spécifiques aux tâches avec une architecture principale gelée ainsi qu'un réglage fin complet de bout en bout pour la classification, nous permettant d'évaluer à la fois la qualité de représentation et les performances spécifiques aux tâches. OmniRad est évalué sur un large éventail de benchmarks publics couvrant la classification et la segmentation sur multiples modalités. Sur la collection MedMNISTv2, OmniRad améliore le F1 de classification jusqu'à 2,05% par rapport aux modèles fondamentaux concurrents. Pour la prédiction dense, OmniRad obtient des améliorations du score de Dice moyen sur six ensembles de données MedSegBench en utilisant des représentations gelées. Les analyses qualitatives et les visualisations de l'espace latent suggèrent une amélioration du regroupement des caractéristiques et une séparation liée aux modalités.
English
Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.