ChatPaper.aiChatPaper

RPCANet++: PCA Robusta Profunda Interpretable para la Segmentación de Objetos Dispersos

RPCANet++: Deep Interpretable Robust PCA for Sparse Object Segmentation

August 6, 2025
Autores: Fengyi Wu, Yimian Dai, Tianfang Zhang, Yixuan Ding, Jian Yang, Ming-Ming Cheng, Zhenming Peng
cs.AI

Resumen

El análisis de componentes principales robusto (RPCA, por sus siglas en inglés) descompone una matriz de observación en componentes de fondo de bajo rango y objetos dispersos. Esta capacidad ha permitido su aplicación en tareas que van desde la restauración de imágenes hasta la segmentación. Sin embargo, los modelos tradicionales de RPCA sufren de cargas computacionales causadas por operaciones matriciales, dependencia de hiperparámetros finamente ajustados y supuestos rígidos que limitan su adaptabilidad en escenarios dinámicos. Para resolver estas limitaciones, proponemos RPCANet++, un marco de segmentación de objetos dispersos que fusiona la interpretabilidad del RPCA con arquitecturas profundas eficientes. Nuestro enfoque despliega un modelo relajado de RPCA en una red estructurada que comprende un Módulo de Aproximación de Fondo (BAM), un Módulo de Extracción de Objetos (OEM) y un Módulo de Restauración de Imágenes (IRM). Para mitigar la pérdida de transmisión entre etapas en el BAM, introducimos un Módulo de Memoria Aumentada (MAM) para mejorar la preservación de características de fondo, mientras que un Módulo de Prioridad de Contraste Profundo (DCPM) aprovecha indicios de saliencia para acelerar la extracción de objetos. Experimentos extensos en diversos conjuntos de datos demuestran que RPCANet++ logra un rendimiento de vanguardia en diversos escenarios de imagen. Además, mejoramos la interpretabilidad mediante mediciones visuales y numéricas de bajo rango y dispersión. Al combinar las fortalezas teóricas del RPCA con la eficiencia de las redes profundas, nuestro enfoque establece un nuevo estándar para la segmentación de objetos dispersos confiable e interpretable. Los códigos están disponibles en nuestra página del proyecto: https://fengyiwu98.github.io/rpcanetx.
English
Robust principal component analysis (RPCA) decomposes an observation matrix into low-rank background and sparse object components. This capability has enabled its application in tasks ranging from image restoration to segmentation. However, traditional RPCA models suffer from computational burdens caused by matrix operations, reliance on finely tuned hyperparameters, and rigid priors that limit adaptability in dynamic scenarios. To solve these limitations, we propose RPCANet++, a sparse object segmentation framework that fuses the interpretability of RPCA with efficient deep architectures. Our approach unfolds a relaxed RPCA model into a structured network comprising a Background Approximation Module (BAM), an Object Extraction Module (OEM), and an Image Restoration Module (IRM). To mitigate inter-stage transmission loss in the BAM, we introduce a Memory-Augmented Module (MAM) to enhance background feature preservation, while a Deep Contrast Prior Module (DCPM) leverages saliency cues to expedite object extraction. Extensive experiments on diverse datasets demonstrate that RPCANet++ achieves state-of-the-art performance under various imaging scenarios. We further improve interpretability via visual and numerical low-rankness and sparsity measurements. By combining the theoretical strengths of RPCA with the efficiency of deep networks, our approach sets a new baseline for reliable and interpretable sparse object segmentation. Codes are available at our Project Webpage https://fengyiwu98.github.io/rpcanetx.
PDF12August 8, 2025