ChatPaper.aiChatPaper

MOOZY: Ориентированная на пациента фундаментальная модель для вычислительной патологии

MOOZY: A Patient-First Foundation Model for Computational Pathology

March 27, 2026
Авторы: Yousef Kotp, Vincent Quoc-Huy Trinh, Christopher Pal, Mahdi S. Hosseini
cs.AI

Аннотация

Вычислительная патология нуждается в фундаментальных моделях для полноразмерных снимков (WSI), обладающих переносимостью для разнообразных клинических задач. Однако современные подходы в основном остаются ориентированными на отдельные срезы, часто зависят от приватных данных и дорогостоящего обучения с привлечением парных отчетов, а также не моделируют явно взаимосвязи между множественными срезами от одного пациента. Мы представляем MOOZY, пациенто-ориентированную фундаментальную модель патологии, в которой ядром представления является клинический случай пациента, а не отдельный срез. MOOZY явно моделирует зависимости между всеми срезами от одного пациента с помощью трансформера случаев на этапе предварительного обучения, комбинируя многоэтапное открытое самообучение с масштабируемым низкозатратным обучением на задачах. На Этапе 1 мы предварительно обучаем визуальный кодировщик срезов на 77 134 публичных наборах признаков срезов с использованием маскированного само-дистилляции. На Этапе 2 мы выравниваем эти представления с клинической семантикой с помощью трансформера случаев и многозадачного обучения на 333 задачах из 56 публичных наборов данных, включая 205 задач классификации и 128 задач прогнозирования выживаемости по четырем конечным точкам. На восьми отложенных задачах при пятикратной оценке с замороженными признаками MOOZY демонстрирует наилучшие или одинаково наилучшие результаты по большинству метрик и улучшает макро-усредненные показатели по сравнению с TITAN на +7,37%, +5,50% и +7,83%, а по сравнению с PRISM — на +8,83%, +10,70% и +9,78% для взвешенной F1-меры, взвешенной ROC-AUC и сбалансированной точности соответственно. MOOZY также эффективна по параметрам (85,77 млн параметров), что в 14 раз меньше, чем у GigaPath. Эти результаты демонстрируют, что открытое, воспроизводимое предварительное обучение на уровне пациента позволяет получать переносимые эмбеддинги, открывая практический путь к созданию масштабируемых пациенто-ориентированных фундаментальных моделей в гистопатологии.
English
Computational pathology needs whole-slide image (WSI) foundation models that transfer across diverse clinical tasks, yet current approaches remain largely slide-centric, often depend on private data and expensive paired-report supervision, and do not explicitly model relationships among multiple slides from the same patient. We present MOOZY, a patient-first pathology foundation model in which the patient case, not the individual slide, is the core unit of representation. MOOZY explicitly models dependencies across all slides from the same patient via a case transformer during pretraining, combining multi-stage open self-supervision with scaled low-cost task supervision. In Stage 1, we pretrain a vision-only slide encoder on 77,134 public slide feature grids using masked self-distillation. In Stage 2, we align these representations with clinical semantics using a case transformer and multi-task supervision over 333 tasks from 56 public datasets, including 205 classification and 128 survival tasks across four endpoints. Across eight held-out tasks with five-fold frozen-feature probe evaluation, MOOZY achieves best or tied-best performance on most metrics and improves macro averages over TITAN by +7.37%, +5.50%, and +7.83% and over PRISM by +8.83%, +10.70%, and +9.78% for weighted F1, weighted ROC-AUC, and balanced accuracy, respectively. MOOZY is also parameter efficient with 85.77M parameters, 14x smaller than GigaPath. These results demonstrate that open, reproducible patient-level pretraining yields transferable embeddings, providing a practical path toward scalable patient-first histopathology foundation models.
PDF11April 1, 2026