OmniRad: Um Modelo de Base Radiológica para Análise Multitarefa de Imagens Médicas
OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis
February 4, 2026
Autores: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto
cs.AI
Resumo
A análise radiológica beneficia cada vez mais de representações visuais pré-treinadas que podem suportar tarefas posteriores heterogéneas em diversas modalidades de imagem. Neste trabalho, introduzimos o OmniRad, um modelo de base radiológica auto-supervisionado pré-treinado em 1,2 milhões de imagens médicas, concebido com princípios inspirados na radiologia que enfatizam a reutilização de representações e a transferibilidade entre tarefas. Avaliamos o codificador pré-treinado sob múltiplos regimes de adaptação posteriores, incluindo adaptadores leves específicos por tarefa com uma backbone congelada, bem como o afinamento completo de ponta a ponta para classificação, permitindo-nos avaliar tanto a qualidade da representação como o desempenho específico da tarefa. O OmniRad é avaliado num amplo conjunto de benchmarks públicos que abrangem classificação e segmentação em múltiplas modalidades. Na coleção MedMNISTv2, o OmniRad melhora o F1 de classificação em até 2,05% em comparação com modelos de base concorrentes. Para previsão densa, o OmniRad atinge melhorias médias no índice Dice em seis conjuntos de dados do MedSegBench ao utilizar representações congeladas. Análises qualitativas e visualizações do espaço latente sugerem uma melhor agregação de características e separação relacionada com a modalidade.
English
Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.