ChatPaper.aiChatPaper

RPCANet++: PCA Robusta Profunda e Interpretável para Segmentação de Objetos Esparsos

RPCANet++: Deep Interpretable Robust PCA for Sparse Object Segmentation

August 6, 2025
Autores: Fengyi Wu, Yimian Dai, Tianfang Zhang, Yixuan Ding, Jian Yang, Ming-Ming Cheng, Zhenming Peng
cs.AI

Resumo

A análise robusta de componentes principais (RPCA) decompõe uma matriz de observação em componentes de fundo de baixa classificação e objetos esparsos. Essa capacidade permitiu sua aplicação em tarefas que vão desde a restauração de imagens até a segmentação. No entanto, os modelos tradicionais de RPCA sofrem com encargos computacionais causados por operações matriciais, dependência de hiperparâmetros finamente ajustados e prioridades rígidas que limitam a adaptabilidade em cenários dinâmicos. Para resolver essas limitações, propomos o RPCANet++, uma estrutura de segmentação de objetos esparsos que combina a interpretabilidade da RPCA com arquiteturas profundas eficientes. Nossa abordagem desdobra um modelo de RPCA relaxado em uma rede estruturada composta por um Módulo de Aproximação de Fundo (BAM), um Módulo de Extração de Objetos (OEM) e um Módulo de Restauração de Imagem (IRM). Para mitigar a perda de transmissão entre estágios no BAM, introduzimos um Módulo de Memória Aumentada (MAM) para aprimorar a preservação de características de fundo, enquanto um Módulo de Prioridade de Contraste Profundo (DCPM) aproveita pistas de saliência para acelerar a extração de objetos. Experimentos extensivos em diversos conjuntos de dados demonstram que o RPCANet++ alcança desempenho de ponta em vários cenários de imagem. Melhoramos ainda mais a interpretabilidade por meio de medidas visuais e numéricas de baixa classificação e esparsidade. Ao combinar as forças teóricas da RPCA com a eficiência de redes profundas, nossa abordagem estabelece uma nova referência para a segmentação confiável e interpretável de objetos esparsos. Os códigos estão disponíveis em nossa página do projeto: https://fengyiwu98.github.io/rpcanetx.
English
Robust principal component analysis (RPCA) decomposes an observation matrix into low-rank background and sparse object components. This capability has enabled its application in tasks ranging from image restoration to segmentation. However, traditional RPCA models suffer from computational burdens caused by matrix operations, reliance on finely tuned hyperparameters, and rigid priors that limit adaptability in dynamic scenarios. To solve these limitations, we propose RPCANet++, a sparse object segmentation framework that fuses the interpretability of RPCA with efficient deep architectures. Our approach unfolds a relaxed RPCA model into a structured network comprising a Background Approximation Module (BAM), an Object Extraction Module (OEM), and an Image Restoration Module (IRM). To mitigate inter-stage transmission loss in the BAM, we introduce a Memory-Augmented Module (MAM) to enhance background feature preservation, while a Deep Contrast Prior Module (DCPM) leverages saliency cues to expedite object extraction. Extensive experiments on diverse datasets demonstrate that RPCANet++ achieves state-of-the-art performance under various imaging scenarios. We further improve interpretability via visual and numerical low-rankness and sparsity measurements. By combining the theoretical strengths of RPCA with the efficiency of deep networks, our approach sets a new baseline for reliable and interpretable sparse object segmentation. Codes are available at our Project Webpage https://fengyiwu98.github.io/rpcanetx.
PDF12August 8, 2025