ChatPaper.aiChatPaper

VISTA-PATH: Un modello fondante interattivo per la segmentazione delle immagini patologiche e l'analisi quantitativa in patologia computazionale

VISTA-PATH: An interactive foundation model for pathology image segmentation and quantitative analysis in computational pathology

January 23, 2026
Autori: Peixian Liang, Songhao Li, Shunsuke Koga, Yutong Li, Zahra Alipour, Yucheng Tang, Daguang Xu, Zhi Huang
cs.AI

Abstract

La segmentazione semantica accurata delle immagini istopatologiche è cruciale per l'analisi quantitativa dei tessuti e la modellizzazione clinica derivata. I recenti modelli fondazionali per la segmentazione hanno migliorato la generalizzazione attraverso pre-addestramento su larga scala, ma rimangono poco allineati con le esigenze della patologia poiché trattano la segmentazione come un compito di predizione visiva statico. Qui presentiamo VISTA-PATH, un modello fondazionale interattivo e class-aware per la segmentazione in patologia, progettato per risolvere strutture eterogenee, incorporare il feedback degli esperti e produrre segmentazioni a livello di pixel direttamente significative per l'interpretazione clinica. VISTA-PATH condiziona congiuntamente la segmentazione sul contesto visivo, su descrizioni semantiche dei tessuti e su prompt spaziali opzionali forniti dall'esperto, consentendo una segmentazione multi-classe precisa su immagini patologiche eterogenee. Per supportare questo paradigma, abbiamo curato VISTA-PATH Data, un corpus su larga scala per la segmentazione in patologia comprendente oltre 1,6 milioni di triplette immagine-maschera-testo che coprono 9 organi e 93 classi di tessuto. In un'ampia serie di benchmark esterni e non visti durante l'addestramento, VISTA-PATH supera costantemente i modelli fondazionali di segmentazione esistenti. È importante sottolineare che VISTA-PATH supporta un raffinamento dinamico con l'uomo nel ciclo, propagando il feedback di annotazione tramite bounding box a livello di patch, anche sparse, in una segmentazione dell'intero vetrino. Infine, dimostriamo che l'elevata fedeltà e la segmentazione class-aware prodotta da VISTA-PATH la rendono un modello preferibile per la patologia computazionale. Essa migliora l'analisi del microambiente tissutale attraverso il proposto Tumor Interaction Score (TIS), che mostra associazioni forti e significative con la sopravvivenza del paziente. Nel complesso, questi risultati stabiliscono VISTA-PATH come un modello fondazionale che eleva la segmentazione delle immagini patologiche da una predizione statica a una rappresentazione interattiva e clinicamente fondata per la patologia digitale. Il codice sorgente e una demo sono disponibili all'indirizzo https://github.com/zhihuanglab/VISTA-PATH.
English
Accurate semantic segmentation for histopathology image is crucial for quantitative tissue analysis and downstream clinical modeling. Recent segmentation foundation models have improved generalization through large-scale pretraining, yet remain poorly aligned with pathology because they treat segmentation as a static visual prediction task. Here we present VISTA-PATH, an interactive, class-aware pathology segmentation foundation model designed to resolve heterogeneous structures, incorporate expert feedback, and produce pixel-level segmentation that are directly meaningful for clinical interpretation. VISTA-PATH jointly conditions segmentation on visual context, semantic tissue descriptions, and optional expert-provided spatial prompts, enabling precise multi-class segmentation across heterogeneous pathology images. To support this paradigm, we curate VISTA-PATH Data, a large-scale pathology segmentation corpus comprising over 1.6 million image-mask-text triplets spanning 9 organs and 93 tissue classes. Across extensive held-out and external benchmarks, VISTA-PATH consistently outperforms existing segmentation foundation models. Importantly, VISTA-PATH supports dynamic human-in-the-loop refinement by propagating sparse, patch-level bounding-box annotation feedback into whole-slide segmentation. Finally, we show that the high-fidelity, class-aware segmentation produced by VISTA-PATH is a preferred model for computational pathology. It improve tissue microenvironment analysis through proposed Tumor Interaction Score (TIS), which exhibits strong and significant associations with patient survival. Together, these results establish VISTA-PATH as a foundation model that elevates pathology image segmentation from a static prediction to an interactive and clinically grounded representation for digital pathology. Source code and demo can be found at https://github.com/zhihuanglab/VISTA-PATH.
PDF23February 7, 2026