ChatPaper.aiChatPaper

RPCANet++: PCA Robusta Profonda e Interpretabile per la Segmentazione di Oggetti Sparsi

RPCANet++: Deep Interpretable Robust PCA for Sparse Object Segmentation

August 6, 2025
Autori: Fengyi Wu, Yimian Dai, Tianfang Zhang, Yixuan Ding, Jian Yang, Ming-Ming Cheng, Zhenming Peng
cs.AI

Abstract

L'analisi robusta delle componenti principali (RPCA) scompone una matrice di osservazione in componenti di sfondo a basso rango e componenti sparse degli oggetti. Questa capacità ha permesso la sua applicazione in compiti che vanno dal ripristino delle immagini alla segmentazione. Tuttavia, i modelli tradizionali di RPCA soffrono di oneri computazionali causati dalle operazioni matriciali, dalla dipendenza da iperparametri finemente sintonizzati e da presupposti rigidi che limitano l'adattabilità in scenari dinamici. Per risolvere queste limitazioni, proponiamo RPCANet++, un framework di segmentazione di oggetti sparsi che fonde l'interpretabilità della RPCA con architetture profonde efficienti. Il nostro approccio sviluppa un modello RPCA rilassato in una rete strutturata composta da un Modulo di Approssimazione dello Sfondo (BAM), un Modulo di Estrazione degli Oggetti (OEM) e un Modulo di Ripristino dell'Immagine (IRM). Per mitigare la perdita di trasmissione inter-stadio nel BAM, introduciamo un Modulo Aumentato dalla Memoria (MAM) per migliorare la preservazione delle caratteristiche dello sfondo, mentre un Modulo di Priorità di Contrasto Profondo (DCPM) sfrutta indizi di salienza per accelerare l'estrazione degli oggetti. Esperimenti estesi su diversi dataset dimostrano che RPCANet++ raggiunge prestazioni all'avanguardia in vari scenari di imaging. Miglioriamo ulteriormente l'interpretabilità attraverso misurazioni visive e numeriche di basso rango e sparsità. Combinando i punti di forza teorici della RPCA con l'efficienza delle reti profonde, il nostro approccio stabilisce un nuovo riferimento per una segmentazione affidabile e interpretabile di oggetti sparsi. I codici sono disponibili sulla nostra Pagina del Progetto https://fengyiwu98.github.io/rpcanetx.
English
Robust principal component analysis (RPCA) decomposes an observation matrix into low-rank background and sparse object components. This capability has enabled its application in tasks ranging from image restoration to segmentation. However, traditional RPCA models suffer from computational burdens caused by matrix operations, reliance on finely tuned hyperparameters, and rigid priors that limit adaptability in dynamic scenarios. To solve these limitations, we propose RPCANet++, a sparse object segmentation framework that fuses the interpretability of RPCA with efficient deep architectures. Our approach unfolds a relaxed RPCA model into a structured network comprising a Background Approximation Module (BAM), an Object Extraction Module (OEM), and an Image Restoration Module (IRM). To mitigate inter-stage transmission loss in the BAM, we introduce a Memory-Augmented Module (MAM) to enhance background feature preservation, while a Deep Contrast Prior Module (DCPM) leverages saliency cues to expedite object extraction. Extensive experiments on diverse datasets demonstrate that RPCANet++ achieves state-of-the-art performance under various imaging scenarios. We further improve interpretability via visual and numerical low-rankness and sparsity measurements. By combining the theoretical strengths of RPCA with the efficiency of deep networks, our approach sets a new baseline for reliable and interpretable sparse object segmentation. Codes are available at our Project Webpage https://fengyiwu98.github.io/rpcanetx.
PDF12August 8, 2025