ChatPaper.aiChatPaper

RPCANet++: 희소 객체 분할을 위한 심층 해석 가능한 강건한 주성분 분석

RPCANet++: Deep Interpretable Robust PCA for Sparse Object Segmentation

August 6, 2025
저자: Fengyi Wu, Yimian Dai, Tianfang Zhang, Yixuan Ding, Jian Yang, Ming-Ming Cheng, Zhenming Peng
cs.AI

초록

강건한 주성분 분석(RPCA)은 관측 행렬을 저랭크 배경 성분과 희소 객체 성분으로 분해합니다. 이러한 능력 덕분에 RPCA는 이미지 복원부터 분할에 이르기까지 다양한 작업에 적용되어 왔습니다. 그러나 전통적인 RPCA 모델은 행렬 연산으로 인한 계산 부담, 미세 조정된 하이퍼파라미터에 대한 의존성, 그리고 동적 시나리오에서의 적응성을 제한하는 경직된 사전 정보 등의 문제를 안고 있습니다. 이러한 한계를 해결하기 위해, 우리는 RPCA의 해석 가능성과 효율적인 딥 아키텍처를 융합한 희소 객체 분할 프레임워크인 RPCANet++를 제안합니다. 우리의 접근 방식은 완화된 RPCA 모델을 배경 근사 모듈(BAM), 객체 추출 모듈(OEM), 이미지 복원 모듈(IRM)로 구성된 구조화된 네트워크로 전개합니다. BAM에서의 단계 간 전송 손실을 완화하기 위해, 우리는 배경 특징 보존을 강화하는 메모리 증강 모듈(MAM)을 도입했으며, 깊은 대비 사전 모듈(DCPM)은 두드러짐 단서를 활용하여 객체 추출을 가속화합니다. 다양한 데이터셋에서의 광범위한 실험을 통해 RPCANet++가 다양한 이미징 시나리오에서 최첨단 성능을 달성함을 입증했습니다. 또한, 우리는 시각적 및 수치적 저랭크성과 희소성 측정을 통해 해석 가능성을 더욱 개선했습니다. RPCA의 이론적 강점과 딥 네트워크의 효율성을 결합함으로써, 우리의 접근 방식은 신뢰할 수 있고 해석 가능한 희소 객체 분할을 위한 새로운 기준을 제시합니다. 코드는 프로젝트 웹페이지 https://fengyiwu98.github.io/rpcanetx에서 확인할 수 있습니다.
English
Robust principal component analysis (RPCA) decomposes an observation matrix into low-rank background and sparse object components. This capability has enabled its application in tasks ranging from image restoration to segmentation. However, traditional RPCA models suffer from computational burdens caused by matrix operations, reliance on finely tuned hyperparameters, and rigid priors that limit adaptability in dynamic scenarios. To solve these limitations, we propose RPCANet++, a sparse object segmentation framework that fuses the interpretability of RPCA with efficient deep architectures. Our approach unfolds a relaxed RPCA model into a structured network comprising a Background Approximation Module (BAM), an Object Extraction Module (OEM), and an Image Restoration Module (IRM). To mitigate inter-stage transmission loss in the BAM, we introduce a Memory-Augmented Module (MAM) to enhance background feature preservation, while a Deep Contrast Prior Module (DCPM) leverages saliency cues to expedite object extraction. Extensive experiments on diverse datasets demonstrate that RPCANet++ achieves state-of-the-art performance under various imaging scenarios. We further improve interpretability via visual and numerical low-rankness and sparsity measurements. By combining the theoretical strengths of RPCA with the efficiency of deep networks, our approach sets a new baseline for reliable and interpretable sparse object segmentation. Codes are available at our Project Webpage https://fengyiwu98.github.io/rpcanetx.
PDF12August 8, 2025