ChatPaper.aiChatPaper

MOOZY: Een patiëntgerichte foundation model voor computationele pathologie

MOOZY: A Patient-First Foundation Model for Computational Pathology

March 27, 2026
Auteurs: Yousef Kotp, Vincent Quoc-Huy Trinh, Christopher Pal, Mahdi S. Hosseini
cs.AI

Samenvatting

De computationele pathologie heeft behoefte aan foundationmodellen voor whole-slide images (WSI's) die generaliseren naar diverse klinische taken. Huidige methoden zijn echter grotendeels slide-gecentreerd, zijn vaak afhankelijk van private data en dure supervisie met gekoppelde pathologiereports, en modelleren niet expliciet de relaties tussen meerdere slides van dezelfde patiënt. Wij presenteren MOOZY, een patiënt-gericht pathologie foundationmodel waarin de patiëntcasus, en niet de individuele slide, de kern van de representatie vormt. MOOZY modelleert expliciet afhankelijkheden tussen alle slides van dezelfde patiënt via een case-transformer tijdens de pretraining, door multi-stage open self-supervision te combineren met geschaalde, goedkope tasksupervisie. In Fase 1 pretrainen we een visueel slide-encoder-model op 77.134 publieke slide-featuregrids met behulp van gemaskeerde zelf-distillatie. In Fase 2 aligneren we deze representaties met klinische semantiek met behulp van een case-transformer en multi-task supervisie over 333 taken uit 56 publieke datasets, waaronder 205 classificatie- en 128 overlevingstaken voor vier eindpunten. In evaluaties op acht buiten-beschouwing-gelaten taken met five-fold frozen-feature probe evaluation behaalt MOOZY de beste of gedeeld beste prestaties op de meeste metrieken en verbetert het de macro-gemiddelden ten opzichte van TITAN met +7,37%, +5,50% en +7,83% en ten opzichte van PRISM met +8,83%, +10,70% en +9,78% voor respectievelijk gewogen F1, gewogen ROC-AUC en gebalanceerde nauwkeurigheid. MOOZY is ook parameter-efficiënt met 85,77M parameters, 14x kleiner dan GigaPath. Deze resultaten tonen aan dat open, reproduceerbare pretraining op patiëntniveau overdraagbare embeddings oplevert, en biedt een praktisch pad naar schaalbare, patiënt-gerichte histopathologie foundationmodellen.
English
Computational pathology needs whole-slide image (WSI) foundation models that transfer across diverse clinical tasks, yet current approaches remain largely slide-centric, often depend on private data and expensive paired-report supervision, and do not explicitly model relationships among multiple slides from the same patient. We present MOOZY, a patient-first pathology foundation model in which the patient case, not the individual slide, is the core unit of representation. MOOZY explicitly models dependencies across all slides from the same patient via a case transformer during pretraining, combining multi-stage open self-supervision with scaled low-cost task supervision. In Stage 1, we pretrain a vision-only slide encoder on 77,134 public slide feature grids using masked self-distillation. In Stage 2, we align these representations with clinical semantics using a case transformer and multi-task supervision over 333 tasks from 56 public datasets, including 205 classification and 128 survival tasks across four endpoints. Across eight held-out tasks with five-fold frozen-feature probe evaluation, MOOZY achieves best or tied-best performance on most metrics and improves macro averages over TITAN by +7.37%, +5.50%, and +7.83% and over PRISM by +8.83%, +10.70%, and +9.78% for weighted F1, weighted ROC-AUC, and balanced accuracy, respectively. MOOZY is also parameter efficient with 85.77M parameters, 14x smaller than GigaPath. These results demonstrate that open, reproducible patient-level pretraining yields transferable embeddings, providing a practical path toward scalable patient-first histopathology foundation models.
PDF62April 17, 2026