MOOZY:計算病理学のための患者ファースト基盤モデル
MOOZY: A Patient-First Foundation Model for Computational Pathology
March 27, 2026
著者: Yousef Kotp, Vincent Quoc-Huy Trinh, Christopher Pal, Mahdi S. Hosseini
cs.AI
要旨
計算病理学には多様な臨床タスクに汎化する全スライド画像(WSI)基盤モデルが必要であるが、現在のアプローチは依然としてスライド中心が主流で、非公開データと高コストな報告書ペア監督への依存度が高く、同一患者由来の複数スライド間の関係性を明示的にモデル化していない。本論文では、個々のスライドではなく患者症例を表現の基本単位とする患者本位の病理学基盤モデルMOOZYを提案する。MOOZYは事前学習時にケーストランスフォーマーを通じて同一患者の全スライド間の依存関係を明示的にモデル化し、多段階のオープン自己教師学習とスケーラブルな低コストタスク監督を組み合わせる。Stage 1では、77,134枚の公開スライド特徴グリッドを用いたマスク型自己蒸留により視覚専用スライドエンコーダを事前学習する。Stage 2では、56の公開データセットから抽出した333タスク(4つのエンドポイントにわたる205の分類タスクと128の生存解析タスクを含む)に対する多タスク監督とケーストランスフォーマーを用いて、これらの表現を臨床意味論に整合させる。8つの検証タスクにおける5分割凍結特徴プローブ評価では、MOOZYは大半の指標で最高または同率最高性能を達成し、TITANと比較してweighted F1、weighted ROC-AUC、balanced accuracyのマクロ平均がそれぞれ+7.37%、+5.50%、+7.83%、PRISMと比較して+8.83%、+10.70%、+9.78%向上した。MOOZYは85.77Mパラメータとパラメータ効率が高く、GigaPathより14倍小型である。これらの結果は、オープンで再現性のある患者レベル事前学習が転移可能な埋め込みを生成し、スケーラブルな患者本位の組織病理学基盤モデルへの実用的な道筋を提供することを示唆する。
English
Computational pathology needs whole-slide image (WSI) foundation models that transfer across diverse clinical tasks, yet current approaches remain largely slide-centric, often depend on private data and expensive paired-report supervision, and do not explicitly model relationships among multiple slides from the same patient. We present MOOZY, a patient-first pathology foundation model in which the patient case, not the individual slide, is the core unit of representation. MOOZY explicitly models dependencies across all slides from the same patient via a case transformer during pretraining, combining multi-stage open self-supervision with scaled low-cost task supervision. In Stage 1, we pretrain a vision-only slide encoder on 77,134 public slide feature grids using masked self-distillation. In Stage 2, we align these representations with clinical semantics using a case transformer and multi-task supervision over 333 tasks from 56 public datasets, including 205 classification and 128 survival tasks across four endpoints. Across eight held-out tasks with five-fold frozen-feature probe evaluation, MOOZY achieves best or tied-best performance on most metrics and improves macro averages over TITAN by +7.37%, +5.50%, and +7.83% and over PRISM by +8.83%, +10.70%, and +9.78% for weighted F1, weighted ROC-AUC, and balanced accuracy, respectively. MOOZY is also parameter efficient with 85.77M parameters, 14x smaller than GigaPath. These results demonstrate that open, reproducible patient-level pretraining yields transferable embeddings, providing a practical path toward scalable patient-first histopathology foundation models.