ChatPaper.aiChatPaper

AtlasPatch: Uno Strumento Efficiente e Scalabile per la Pre-elaborazione di Immagini a Tutto Vetrino in Patologia Computazionale

AtlasPatch: An Efficient and Scalable Tool for Whole Slide Image Preprocessing in Computational Pathology

February 3, 2026
Autori: Ahmed Alagha, Christopher Leclerc, Yousef Kotp, Omar Metwally, Calvin Moras, Peter Rentopoulos, Ghodsiyeh Rostami, Bich Ngoc Nguyen, Jumanah Baig, Abdelhakim Khellaf, Vincent Quoc-Huy Trinh, Rabeb Mizouni, Hadi Otrok, Jamal Bentahar, Mahdi S. Hosseini
cs.AI

Abstract

La preelaborazione delle immagini a intero vetrino (WSI), che tipicamente comprende la rilevazione dei tessuti seguita dall'estrazione di patch, è fondamentale per i flussi di lavoro di patologia computazionale guidata dall'IA. Questa fase rimane un collo di bottiglia computazionale significativo, poiché gli strumenti esistenti si basano su sogliatura euristica imprecisa per la rilevazione dei tessuti, oppure adottano approcci basati su IA addestrati su dati con diversità limitata che operano a livello di patch, comportando una notevole complessità computazionale. Presentiamo AtlasPatch, un framework efficiente e scalabile per la preelaborazione di vetrini, progettato per una rilevazione accurata dei tessuti e un'estrazione ad alto rendimento di patch con un overhead computazionale minimo. Il modulo di rilevazione tissutale di AtlasPatch è stato addestrato su un dataset eterogeneo e semi-annotato manualmente di circa 30.000 miniature WSI, utilizzando un efficiente fine-tuning del modello Segment-Anything. Lo strumento estrapola le maschere dei tessuti dalle miniature ai vetrini a piena risoluzione per estrarre le coordinate delle patch alle ingrandimenti specificati dall'utente, con opzioni per flussare direttamente le patch in encoder di immagini comuni per l'embedding o per memorizzare le immagini delle patch, il tutto parallelizzato efficientemente su CPU e GPU. Valutiamo AtlasPatch in termini di precisione di segmentazione, complessità computazionale e apprendimento multi-istanza a valle, ottenendo prestazioni allo stato dell'arte operando a una frazione del loro costo computazionale. AtlasPatch è open-source e disponibile all'indirizzo https://github.com/AtlasAnalyticsLab/AtlasPatch.
English
Whole-slide image (WSI) preprocessing, typically comprising tissue detection followed by patch extraction, is foundational to AI-driven computational pathology workflows. This remains a major computational bottleneck as existing tools either rely on inaccurate heuristic thresholding for tissue detection, or adopt AI-based approaches trained on limited-diversity data that operate at the patch level, incurring substantial computational complexity. We present AtlasPatch, an efficient and scalable slide preprocessing framework for accurate tissue detection and high-throughput patch extraction with minimal computational overhead. AtlasPatch's tissue detection module is trained on a heterogeneous and semi-manually annotated dataset of ~30,000 WSI thumbnails, using efficient fine-tuning of the Segment-Anything model. The tool extrapolates tissue masks from thumbnails to full-resolution slides to extract patch coordinates at user-specified magnifications, with options to stream patches directly into common image encoders for embedding or store patch images, all efficiently parallelized across CPUs and GPUs. We assess AtlasPatch across segmentation precision, computational complexity, and downstream multiple-instance learning, matching state-of-the-art performance while operating at a fraction of their computational cost. AtlasPatch is open-source and available at https://github.com/AtlasAnalyticsLab/AtlasPatch.
PDF42March 31, 2026