ChatPaper.aiChatPaper

RPCANet++: Tiefes interpretierbares robustes PCA für die Segmentierung spärlicher Objekte

RPCANet++: Deep Interpretable Robust PCA for Sparse Object Segmentation

August 6, 2025
papers.authors: Fengyi Wu, Yimian Dai, Tianfang Zhang, Yixuan Ding, Jian Yang, Ming-Ming Cheng, Zhenming Peng
cs.AI

papers.abstract

Die robuste Hauptkomponentenanalyse (RPCA) zerlegt eine Beobachtungsmatrix in niedrigrangige Hintergrund- und spärliche Objektkomponenten. Diese Fähigkeit hat ihre Anwendung in Aufgaben von der Bildrestaurierung bis zur Segmentierung ermöglicht. Traditionelle RPCA-Modelle leiden jedoch unter rechenintensiven Matrixoperationen, der Abhängigkeit von fein abgestimmten Hyperparametern und starren Priorisierungen, die die Anpassungsfähigkeit in dynamischen Szenarien einschränken. Um diese Einschränkungen zu überwinden, schlagen wir RPCANet++ vor, ein Framework zur Segmentierung spärlicher Objekte, das die Interpretierbarkeit von RPCA mit effizienten Deep-Learning-Architekturen kombiniert. Unser Ansatz entfaltet ein entspanntes RPCA-Modell in ein strukturiertes Netzwerk, das aus einem Hintergrundapproximationsmodul (BAM), einem Objektextraktionsmodul (OEM) und einem Bildrestaurationsmodul (IRM) besteht. Um den Übertragungsverlust zwischen den Stufen im BAM zu minimieren, führen wir ein speichergestütztes Modul (MAM) ein, um die Erhaltung von Hintergrundmerkmalen zu verbessern, während ein Deep-Contrast-Prior-Modul (DCPM) Salienzhinweise nutzt, um die Objektextraktion zu beschleunigen. Umfangreiche Experimente auf verschiedenen Datensätzen zeigen, dass RPCANet++ unter verschiedenen Bildszenarien state-of-the-art Leistungen erzielt. Wir verbessern die Interpretierbarkeit weiter durch visuelle und numerische Messungen von Niedrigrangigkeit und Sparsity. Indem wir die theoretischen Stärken von RPCA mit der Effizienz von Deep-Learning-Netzwerken kombinieren, setzt unser Ansatz einen neuen Maßstab für zuverlässige und interpretierbare Segmentierung spärlicher Objekte. Die Codes sind auf unserer Projektwebseite verfügbar: https://fengyiwu98.github.io/rpcanetx.
English
Robust principal component analysis (RPCA) decomposes an observation matrix into low-rank background and sparse object components. This capability has enabled its application in tasks ranging from image restoration to segmentation. However, traditional RPCA models suffer from computational burdens caused by matrix operations, reliance on finely tuned hyperparameters, and rigid priors that limit adaptability in dynamic scenarios. To solve these limitations, we propose RPCANet++, a sparse object segmentation framework that fuses the interpretability of RPCA with efficient deep architectures. Our approach unfolds a relaxed RPCA model into a structured network comprising a Background Approximation Module (BAM), an Object Extraction Module (OEM), and an Image Restoration Module (IRM). To mitigate inter-stage transmission loss in the BAM, we introduce a Memory-Augmented Module (MAM) to enhance background feature preservation, while a Deep Contrast Prior Module (DCPM) leverages saliency cues to expedite object extraction. Extensive experiments on diverse datasets demonstrate that RPCANet++ achieves state-of-the-art performance under various imaging scenarios. We further improve interpretability via visual and numerical low-rankness and sparsity measurements. By combining the theoretical strengths of RPCA with the efficiency of deep networks, our approach sets a new baseline for reliable and interpretable sparse object segmentation. Codes are available at our Project Webpage https://fengyiwu98.github.io/rpcanetx.
PDF12August 8, 2025