ChatPaper.aiChatPaper

OmniRad: un modello di base radiologico per l'analisi multi-task di immagini mediche

OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis

February 4, 2026
Autori: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto
cs.AI

Abstract

L'analisi radiologica trae crescente beneficio da rappresentazioni visive pre-addestrate in grado di supportare task downstream eterogenei tra diverse modalità di imaging. In questo lavoro presentiamo OmniRad, un modello foundation radiologico auto-supervisionato pre-addestrato su 1,2 milioni di immagini mediche, progettato secondo principi ispirati alla radiologia che enfatizzano il riutilizzo delle rappresentazioni e la trasferibilità cross-task. Valutiamo l'encoder pre-addestrato sotto molteplici regimi di adattamento downstream, inclusi adattatori task-specific leggeri con backbone congelato e fine-tuning end-to-end completo per la classificazione, consentendoci di valutare sia la qualità rappresentazionale che le prestazioni task-specific. OmniRad viene valutato su un'ampia suite di benchmark pubblici che abbracciano classificazione e segmentazione attraverso multiple modalità. Sulla collezione MedMNISTv2, OmniRad migliora l'F1 di classificazione fino al 2,05% rispetto a modelli foundation concorrenti. Per le previsioni dense, OmniRad ottiene miglioramenti del punteggio Dice medio su sei dataset MedSegBench utilizzando rappresentazioni congelate. Analisi qualitative e visualizzazioni dello spazio latente suggeriscono un miglior clustering delle feature e una separazione correlata alla modalità.
English
Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.
PDF13March 21, 2026