ChatPaper.aiChatPaper

RPCANet++ : Réseau profond interprétable de PCA robuste pour la segmentation d'objets parcimonieux

RPCANet++: Deep Interpretable Robust PCA for Sparse Object Segmentation

August 6, 2025
papers.authors: Fengyi Wu, Yimian Dai, Tianfang Zhang, Yixuan Ding, Jian Yang, Ming-Ming Cheng, Zhenming Peng
cs.AI

papers.abstract

L'analyse en composantes principales robuste (RPCA) décompose une matrice d'observation en un fond de faible rang et des composantes d'objets parcimonieuses. Cette capacité a permis son application dans des tâches allant de la restauration d'images à la segmentation. Cependant, les modèles RPCA traditionnels souffrent de charges computationnelles dues aux opérations matricielles, d'une dépendance à des hyperparamètres finement ajustés, et de priors rigides qui limitent l'adaptabilité dans des scénarios dynamiques. Pour résoudre ces limitations, nous proposons RPCANet++, un cadre de segmentation d'objets parcimonieux qui fusionne l'interprétabilité de la RPCA avec des architectures profondes efficaces. Notre approche déploie un modèle RPCA relaxé en un réseau structuré comprenant un Module d'Approximation de Fond (BAM), un Module d'Extraction d'Objets (OEM), et un Module de Restauration d'Image (IRM). Pour atténuer la perte de transmission inter-étapes dans le BAM, nous introduisons un Module à Mémoire Augmentée (MAM) pour améliorer la préservation des caractéristiques de fond, tandis qu'un Module de Priorité de Contraste Profond (DCPM) exploite des indices de saillance pour accélérer l'extraction d'objets. Des expériences approfondies sur divers ensembles de données démontrent que RPCANet++ atteint des performances de pointe dans divers scénarios d'imagerie. Nous améliorons également l'interprétabilité via des mesures visuelles et numériques de faible rang et de parcimonie. En combinant les forces théoriques de la RPCA avec l'efficacité des réseaux profonds, notre approche établit une nouvelle référence pour une segmentation d'objets parcimonieux fiable et interprétable. Les codes sont disponibles sur notre page de projet https://fengyiwu98.github.io/rpcanetx.
English
Robust principal component analysis (RPCA) decomposes an observation matrix into low-rank background and sparse object components. This capability has enabled its application in tasks ranging from image restoration to segmentation. However, traditional RPCA models suffer from computational burdens caused by matrix operations, reliance on finely tuned hyperparameters, and rigid priors that limit adaptability in dynamic scenarios. To solve these limitations, we propose RPCANet++, a sparse object segmentation framework that fuses the interpretability of RPCA with efficient deep architectures. Our approach unfolds a relaxed RPCA model into a structured network comprising a Background Approximation Module (BAM), an Object Extraction Module (OEM), and an Image Restoration Module (IRM). To mitigate inter-stage transmission loss in the BAM, we introduce a Memory-Augmented Module (MAM) to enhance background feature preservation, while a Deep Contrast Prior Module (DCPM) leverages saliency cues to expedite object extraction. Extensive experiments on diverse datasets demonstrate that RPCANet++ achieves state-of-the-art performance under various imaging scenarios. We further improve interpretability via visual and numerical low-rankness and sparsity measurements. By combining the theoretical strengths of RPCA with the efficiency of deep networks, our approach sets a new baseline for reliable and interpretable sparse object segmentation. Codes are available at our Project Webpage https://fengyiwu98.github.io/rpcanetx.
PDF12August 8, 2025