ChatPaper.aiChatPaper

MOOZY : Un modèle fondamental axé sur le patient pour la pathologie computationnelle

MOOZY: A Patient-First Foundation Model for Computational Pathology

March 27, 2026
Auteurs: Yousef Kotp, Vincent Quoc-Huy Trinh, Christopher Pal, Mahdi S. Hosseini
cs.AI

Résumé

La pathologie computationnelle nécessite des modèles de fondation pour images de lame entière (WSI) capables de se transférer à diverses tâches cliniques. Cependant, les approches actuelles restent largement centrées sur la lame, dépendent souvent de données privées et d'une supervision coûteuse par rapports appariés, et ne modélisent pas explicitement les relations entre plusieurs lames d'un même patient. Nous présentons MOOZY, un modèle de fondation pathologique axé sur le patient, où le cas clinique, et non la lame individuelle, constitue l'unité fondamentale de représentation. MOOZY modélise explicitement les dépendances entre toutes les lames d'un même patient via un transformeur de cas lors du pré-entraînement, combinant une auto-supervision ouverte multi-étapes avec une supervision de tâches à faible coût et à grande échelle. Lors de l'Étape 1, nous pré-entraînons un encodeur de lame visuel sur 77 134 grilles de caractéristiques de lames publiques en utilisant une distillation auto-supervisée masquée. Lors de l'Étape 2, nous alignons ces représentations avec la sémantique clinique en utilisant un transformeur de cas et une supervision multi-tâches sur 333 tâches issues de 56 ensembles de données publics, incluant 205 tâches de classification et 128 tâches de survie couvrant quatre critères d'évaluation. Sur huit tâches de test exclues, avec une évaluation par sonde à caractéristiques gelées en validation croisée quintuple, MOOZY obtient les meilleures performances ou des performances équivalentes sur la plupart des métriques. Il améliore les moyennes macro par rapport à TITAN de +7,37 %, +5,50 % et +7,83 %, et par rapport à PRISM de +8,83 %, +10,70 % et +9,78 % pour le F1 pondéré, l'aire sous la courbe ROC pondérée et la précision équilibrée, respectivement. MOOZY est également efficace en paramètres avec 85,77 millions de paramètres, soit 14 fois plus petit que GigaPath. Ces résultats démontrent qu'un pré-entraînement ouvert et reproductible au niveau du patient produit des embeddings transférables, ouvrant une voie pratique vers des modèles de fondation histopathologiques évolutifs centrés sur le patient.
English
Computational pathology needs whole-slide image (WSI) foundation models that transfer across diverse clinical tasks, yet current approaches remain largely slide-centric, often depend on private data and expensive paired-report supervision, and do not explicitly model relationships among multiple slides from the same patient. We present MOOZY, a patient-first pathology foundation model in which the patient case, not the individual slide, is the core unit of representation. MOOZY explicitly models dependencies across all slides from the same patient via a case transformer during pretraining, combining multi-stage open self-supervision with scaled low-cost task supervision. In Stage 1, we pretrain a vision-only slide encoder on 77,134 public slide feature grids using masked self-distillation. In Stage 2, we align these representations with clinical semantics using a case transformer and multi-task supervision over 333 tasks from 56 public datasets, including 205 classification and 128 survival tasks across four endpoints. Across eight held-out tasks with five-fold frozen-feature probe evaluation, MOOZY achieves best or tied-best performance on most metrics and improves macro averages over TITAN by +7.37%, +5.50%, and +7.83% and over PRISM by +8.83%, +10.70%, and +9.78% for weighted F1, weighted ROC-AUC, and balanced accuracy, respectively. MOOZY is also parameter efficient with 85.77M parameters, 14x smaller than GigaPath. These results demonstrate that open, reproducible patient-level pretraining yields transferable embeddings, providing a practical path toward scalable patient-first histopathology foundation models.
PDF11April 1, 2026