ChatPaper.aiChatPaper

MOOZY: Un modello di base incentrato sul paziente per la patologia computazionale

MOOZY: A Patient-First Foundation Model for Computational Pathology

March 27, 2026
Autori: Yousef Kotp, Vincent Quoc-Huy Trinh, Christopher Pal, Mahdi S. Hosseini
cs.AI

Abstract

La patologia computazionale necessita di modelli di fondazione per immagini whole-slide (WSI) che siano trasferibili tra diverse attività cliniche, ma gli approcci attuali rimangono largamente centrati sulla singola slide, spesso dipendono da dati privati e da una supervisione costosa basata su report associati, e non modellano esplicitamente le relazioni tra multiple slide dello stesso paziente. Presentiamo MOOZY, un modello di fondazione per la patologia di tipo "patient-first" in cui il caso clinico, non la singola slide, è l'unità fondamentale della rappresentazione. MOOZY modella esplicitamente le dipendenze tra tutte le slide dello stesso paziente tramite un case transformer durante il pre-addestramento, combinando un'auto-supervisione aperta multi-stadio con una supervisione su task a basso costo e su larga scala. Nello Stadio 1, pre-addestriamo un codificore di slide puramente visivo su 77.134 griglie di caratteristiche pubbliche di slide utilizzando la distillazione auto-mascherata. Nello Stadio 2, allineiamo queste rappresentazioni con la semantica clinica utilizzando un case transformer e una supervisione multi-task su 333 attività provenienti da 56 dataset pubblici, incluse 205 attività di classificazione e 128 di sopravvivenza relative a quattro endpoint. In otto task di valutazione convalidata con probe a caratteristiche congelate e cinque fold, MOOZY raggiunge le performance migliori o in pareggio sulla maggior parte delle metriche e migliora le medie macro rispetto a TITAN di +7,37%, +5,50% e +7,83% e rispetto a PRISM di +8,83%, +10,70% e +9,78% rispettivamente per F1 pesato, ROC-AUC pesato e accuratezza bilanciata. MOOZY è anche efficiente in termini di parametri, con 85,77 milioni di parametri, 14 volte più piccolo di GigaPath. Questi risultati dimostrano che un pre-addestramento aperto e riproducibile a livello paziente produce embedding trasferibili, fornendo un percorso pratico verso modelli di fondazione per l'istopatologia scalabili e incentrati sul paziente.
English
Computational pathology needs whole-slide image (WSI) foundation models that transfer across diverse clinical tasks, yet current approaches remain largely slide-centric, often depend on private data and expensive paired-report supervision, and do not explicitly model relationships among multiple slides from the same patient. We present MOOZY, a patient-first pathology foundation model in which the patient case, not the individual slide, is the core unit of representation. MOOZY explicitly models dependencies across all slides from the same patient via a case transformer during pretraining, combining multi-stage open self-supervision with scaled low-cost task supervision. In Stage 1, we pretrain a vision-only slide encoder on 77,134 public slide feature grids using masked self-distillation. In Stage 2, we align these representations with clinical semantics using a case transformer and multi-task supervision over 333 tasks from 56 public datasets, including 205 classification and 128 survival tasks across four endpoints. Across eight held-out tasks with five-fold frozen-feature probe evaluation, MOOZY achieves best or tied-best performance on most metrics and improves macro averages over TITAN by +7.37%, +5.50%, and +7.83% and over PRISM by +8.83%, +10.70%, and +9.78% for weighted F1, weighted ROC-AUC, and balanced accuracy, respectively. MOOZY is also parameter efficient with 85.77M parameters, 14x smaller than GigaPath. These results demonstrate that open, reproducible patient-level pretraining yields transferable embeddings, providing a practical path toward scalable patient-first histopathology foundation models.
PDF32April 1, 2026