CPCANet: Despliegue Profundo del Análisis de Componentes Principales Comunes para la Generalización de Dominio
CPCANet: Deep Unfolding Common Principal Component Analysis for Domain Generalization
May 7, 2026
Autores: Yu-Hsi Chen, Abd-Krim Seghouane
cs.AI
Resumen
La Generalización de Dominio (DG) tiene como objetivo aprender representaciones que se mantengan robustas ante cambios fuera de distribución (OOD) y que generalicen de manera efectiva a dominios objetivo no vistos. Si bien las estrategias recientes de aprendizaje invariante y los avances arquitectónicos han logrado un rendimiento sólido, la exploración explícita de un subespacio estructurado e invariante de dominio mediante estadísticas de segundo orden sigue siendo poco estudiada. En este trabajo, proponemos CPCANet, un marco novedoso basado en el Análisis de Componentes Principales Comunes (CPCA), que despliega el algoritmo iterativo de Flury-Gautschi (FG) en capas neuronales completamente diferenciables. Este enfoque integra las propiedades estadísticas del CPCA en un marco entrenable de extremo a extremo, forzando el descubrimiento de un subespacio compartido entre diversos dominios mientras preserva la interpretabilidad. Los experimentos en cuatro puntos de referencia estándar de DG demuestran que CPCANet alcanza un rendimiento de vanguardia (SOTA) en transferencia zero-shot. Además, CPCANet es agnóstico respecto a la arquitectura y no requiere ajustes específicos del conjunto de datos, lo que proporciona un enfoque simple y eficiente para aprender representaciones robustas bajo cambios de distribución. El código está disponible en https://github.com/wish44165/CPCANet.
English
Domain Generalization (DG) aims to learn representations that remain robust under out-of-distribution (OOD) shifts and generalize effectively to unseen target domains. While recent invariant learning strategies and architectural advances have achieved strong performance, explicitly discovering a structured domain-invariant subspace through second-order statistics remains underexplored. In this work, we propose CPCANet, a novel framework grounded in Common Principal Component Analysis (CPCA), which unrolls the iterative Flury-Gautschi (FG) algorithm into fully differentiable neural layers. This approach integrates the statistical properties of CPCA into an end-to-end trainable framework, enforcing the discovery of a shared subspace across diverse domains while preserving interpretability. Experiments on four standard DG benchmarks demonstrate that CPCANet achieves state-of-the-art (SOTA) performance in zero-shot transfer. Moreover, CPCANet is architecture-agnostic and requires no dataset-specific tuning, providing a simple and efficient approach to learning robust representations under distribution shift. Code is available at https://github.com/wish44165/CPCANet.