ChatPaper.aiChatPaper

RPCANet++: Diep Interpretabel Robuuste PCA voor Sparse Objectsegmentatie

RPCANet++: Deep Interpretable Robust PCA for Sparse Object Segmentation

August 6, 2025
Auteurs: Fengyi Wu, Yimian Dai, Tianfang Zhang, Yixuan Ding, Jian Yang, Ming-Ming Cheng, Zhenming Peng
cs.AI

Samenvatting

Robuste hoofdcomponentenanalyse (RPCA) ontbindt een observatiematrix in een laag-rang achtergrondcomponent en een sparse objectcomponent. Deze mogelijkheid heeft de toepassing ervan mogelijk gemaakt in taken variërend van beeldherstel tot segmentatie. Traditionele RPCA-modellen kampen echter met rekenkundige lasten veroorzaakt door matrixoperaties, afhankelijkheid van fijn afgestelde hyperparameters en rigide aannames die de aanpassingsvermogen in dynamische scenario's beperken. Om deze beperkingen op te lossen, stellen we RPCANet++ voor, een raamwerk voor sparse objectsegmentatie dat de interpreteerbaarheid van RPCA combineert met efficiënte deep learning-architecturen. Onze aanpak ontvouwt een versoepeld RPCA-model in een gestructureerd netwerk bestaande uit een Achtergrondbenaderingsmodule (BAM), een Objectextractiemodule (OEM) en een Beeldherstelmodule (IRM). Om interstapelingsverlies in de BAM te verminderen, introduceren we een Geheugenversterkte Module (MAM) om het behoud van achtergrondkenmerken te verbeteren, terwijl een Diepe Contrastprior Module (DCPM) saliëntie-aanwijzingen benut om objectextractie te versnellen. Uitgebreide experimenten op diverse datasets tonen aan dat RPCANet++ state-of-the-art prestaties bereikt onder verschillende beeldscenario's. We verbeteren de interpreteerbaarheid verder via visuele en numerieke metingen van laag-rangheid en sparsiteit. Door de theoretische sterke punten van RPCA te combineren met de efficiëntie van deep learning-netwerken, zet onze aanpak een nieuwe standaard voor betrouwbare en interpreteerbare sparse objectsegmentatie. Codes zijn beschikbaar op onze Projectwebpagina https://fengyiwu98.github.io/rpcanetx.
English
Robust principal component analysis (RPCA) decomposes an observation matrix into low-rank background and sparse object components. This capability has enabled its application in tasks ranging from image restoration to segmentation. However, traditional RPCA models suffer from computational burdens caused by matrix operations, reliance on finely tuned hyperparameters, and rigid priors that limit adaptability in dynamic scenarios. To solve these limitations, we propose RPCANet++, a sparse object segmentation framework that fuses the interpretability of RPCA with efficient deep architectures. Our approach unfolds a relaxed RPCA model into a structured network comprising a Background Approximation Module (BAM), an Object Extraction Module (OEM), and an Image Restoration Module (IRM). To mitigate inter-stage transmission loss in the BAM, we introduce a Memory-Augmented Module (MAM) to enhance background feature preservation, while a Deep Contrast Prior Module (DCPM) leverages saliency cues to expedite object extraction. Extensive experiments on diverse datasets demonstrate that RPCANet++ achieves state-of-the-art performance under various imaging scenarios. We further improve interpretability via visual and numerical low-rankness and sparsity measurements. By combining the theoretical strengths of RPCA with the efficiency of deep networks, our approach sets a new baseline for reliable and interpretable sparse object segmentation. Codes are available at our Project Webpage https://fengyiwu98.github.io/rpcanetx.
PDF12August 8, 2025