ChatPaper.aiChatPaper

OmniRad:マルチタスク医用画像解析のための放射線学基盤モデル

OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis

February 4, 2026
著者: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto
cs.AI

要旨

放射線学的解析においては、画像モダリティを横断する多様な下流タスクを支援できる事前学習済み視覚表現の利点が増大している。本研究では、放射線学に着想を得た原理(表現の再利用性とクロスタスク転移性を重視)に基づき設計され、120万枚の医療画像で事前学習された自己教師型放射線基盤モデル「OmniRad」を提案する。事前学習済みエンコーダを、バックボーンを固定した軽量なタスク特化型アダプタを使用する場合と、分類タスクにおけるエンドツーエンドの完全ファインチューニングを含む、複数の下流適応体制下で評価し、表現の質とタスク特化性能の両方を検証する。OmniRadは、複数モダリティにわたる分類とセグメンテーションを含む広範な公開ベンチマークスイートで評価される。MedMNISTv2コレクションでは、OmniRadは競合する基盤モデルと比較して分類F1スコアを最大2.05%向上させた。密な予測タスクでは、凍結した表現を使用した場合、6つのMedSegBenchデータセットにわたって平均Diceスコアの改善を達成した。定性的分析と潜在空間の可視化は、特徴クラスタリングとモダリティ関連の分離が改善されていることを示唆している。
English
Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.
PDF11February 6, 2026