OmniRad: 다중 작업 의료 영상 분석을 위한 방사선학 기반 모델
OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis
February 4, 2026
저자: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto
cs.AI
초록
영상의학 분석에서는 다양한 영상 양식에 걸친 이질적 하위 작업을 지원할 수 있는 사전 훈련된 시각적 표현의 이점이 점점 더 중요해지고 있다. 본 연구에서는 표현 재사용 및 작업 간 전이 가능성을 강조하는 영상의학 기반 원리에 따라 설계되고 120만 장의 의료 영상으로 사전 훈련된 자기 지도 학습 방식의 영상의학 기초 모델인 OmniRad를 소개한다. 우리는 분류를 위한 고정 백본과 경량화된 작업별 어댑터 사용부터 완전한 종단 간 미세 조정에 이르기까지 다양한 하위 작업 적용 방식을 통해 사전 훈련된 인코더를 평가하여 표현 품질과 작업별 성능을 종합적으로 분석했다. OmniRad는 여러 양식을 아우르는 분류 및 분할 공개 벤치마크를 대상으로 평가되었다. MedMNISTv2 데이터셋 군에서 OmniRad는 경쟁 기초 모델 대비 분류 F1 점수를 최대 2.05% 향상시켰다. 조밀 예측 작업에서는 고정 표현을 사용할 때 6개 MedSegBench 데이터셋에 걸쳐 평균 Dice 점수 향상을 달성했다. 정성적 분석과 잠재 공간 시각화를 통해 특징 클러스터링 및 양식 관련 분리 성능이 개선되었음을 확인하였다.
English
Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.