AtlasPatch : Un outil efficace et évolutif pour le prétraitement d'images de lames complètes en pathologie computationnelle
AtlasPatch: An Efficient and Scalable Tool for Whole Slide Image Preprocessing in Computational Pathology
February 3, 2026
Auteurs: Ahmed Alagha, Christopher Leclerc, Yousef Kotp, Omar Metwally, Calvin Moras, Peter Rentopoulos, Ghodsiyeh Rostami, Bich Ngoc Nguyen, Jumanah Baig, Abdelhakim Khellaf, Vincent Quoc-Huy Trinh, Rabeb Mizouni, Hadi Otrok, Jamal Bentahar, Mahdi S. Hosseini
cs.AI
Résumé
Le prétraitement des images de lames entières (WSI), comprenant généralement la détection des tissus suivie de l'extraction de patches, est fondamental pour les flux de travail en pathologie computationnelle pilotée par l'IA. Cela reste un goulot d'étranglement informatique majeur car les outils existants reposent soit sur un seuillage heuristique imprécis pour la détection des tissus, soit adoptent des approches basées sur l'IA entraînées sur des données à diversité limitée qui opèrent au niveau du patch, entraînant une complexité computationnelle substantielle. Nous présentons AtlasPatch, un cadre de prétraitement de lames efficace et évolutif pour une détection précise des tissus et une extraction de patches à haut débit avec une surcharge computationnelle minime. Le module de détection des tissus d'AtlasPatch est entraîné sur un ensemble de données hétérogène et semi-manuellement annoté d'environ 30 000 miniatures de WSI, en utilisant un réglage fin efficace du modèle Segment-Anything. L'outil extrapole les masques tissulaires des miniatures aux lames en pleine résolution pour extraire les coordonnées des patches aux grossissements spécifiés par l'utilisateur, avec des options pour diffuser les patches directement dans des encodeurs d'images courants pour l'incorporation ou stocker les images de patches, le tout étant efficacement parallélisé sur les CPU et les GPU. Nous évaluons AtlasPatch sur la précision de la segmentation, la complexité computationnelle et l'apprentissage multi-instances en aval, égalant les performances de l'état de l'art tout en fonctionnant à une fraction de leur coût computationnel. AtlasPatch est open-source et disponible à l'adresse https://github.com/AtlasAnalyticsLab/AtlasPatch.
English
Whole-slide image (WSI) preprocessing, typically comprising tissue detection followed by patch extraction, is foundational to AI-driven computational pathology workflows. This remains a major computational bottleneck as existing tools either rely on inaccurate heuristic thresholding for tissue detection, or adopt AI-based approaches trained on limited-diversity data that operate at the patch level, incurring substantial computational complexity. We present AtlasPatch, an efficient and scalable slide preprocessing framework for accurate tissue detection and high-throughput patch extraction with minimal computational overhead. AtlasPatch's tissue detection module is trained on a heterogeneous and semi-manually annotated dataset of ~30,000 WSI thumbnails, using efficient fine-tuning of the Segment-Anything model. The tool extrapolates tissue masks from thumbnails to full-resolution slides to extract patch coordinates at user-specified magnifications, with options to stream patches directly into common image encoders for embedding or store patch images, all efficiently parallelized across CPUs and GPUs. We assess AtlasPatch across segmentation precision, computational complexity, and downstream multiple-instance learning, matching state-of-the-art performance while operating at a fraction of their computational cost. AtlasPatch is open-source and available at https://github.com/AtlasAnalyticsLab/AtlasPatch.