ChatPaper.aiChatPaper

OmniRad: Un Modelo Fundacional Radiológico para el Análisis de Imágenes Médicas Multitarea

OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis

February 4, 2026
Autores: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto
cs.AI

Resumen

El análisis radiológico se beneficia cada vez más de representaciones visuales preentrenadas que pueden respaldar tareas posteriores heterogéneas en diversas modalidades de imagen. En este trabajo presentamos OmniRad, un modelo base radiológico de autoaprendizaje preentrenado con 1,2 millones de imágenes médicas, diseñado bajo principios inspirados en radiología que enfatizan la reutilización de representaciones y la transferibilidad entre tareas. Evaluamos el codificador preentrenado bajo múltiples regímenes de adaptación posteriores, incluyendo adaptadores ligeros específicos por tarea con una red principal congelada, así como ajuste fino completo de extremo a extremo para clasificación, lo que nos permite evaluar tanto la calidad de la representación como el rendimiento específico por tarea. OmniRad se evalúa en un amplio conjunto de benchmarks públicos que abarcan clasificación y segmentación en múltiples modalidades. En la colección MedMNISTv2, OmniRad mejora el F1 de clasificación hasta en un 2,05% respecto a modelos base competidores. Para predicción densa, OmniRad logra mejoras en la puntuación Dice promedio en seis conjuntos de datos de MedSegBench al utilizar representaciones congeladas. Los análisis cualitativos y las visualizaciones del espacio latente sugieren una mejor agrupación de características y una separación relacionada con la modalidad.
English
Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.
PDF11February 6, 2026