CPCANet: Diepe Ontvouwing van Gemeenschappelijke Hoofdcomponentenanalyse voor Domeingeneralisatie
CPCANet: Deep Unfolding Common Principal Component Analysis for Domain Generalization
May 7, 2026
Auteurs: Yu-Hsi Chen, Abd-Krim Seghouane
cs.AI
Samenvatting
Domeingeneralisatie (DG) heeft tot doel representaties te leren die robuust blijven onder verschuivingen buiten de verdeling (out-of-distribution, OOD) en effectief generaliseren naar ongeziene doeldomeinen. Hoewel recente invariante leerstrategieën en architectonische vooruitgang sterke prestaties hebben behaald, blijft het expliciet ontdekken van een gestructureerde domein-invariante deelruimte via tweede-orde statistieken onderbelicht. In dit werk introduceren we CPCANet, een nieuw raamwerk dat is gebaseerd op Gemeenschappelijke Principale Componentenanalyse (Common Principal Component Analysis, CPCA), en waarin het iteratieve Flury-Gautschi (FG)-algoritme wordt uitgerold tot volledig differentieerbare neurale lagen. Deze benadering integreert de statistische eigenschappen van CPCA in een end-to-end trainbaar raamwerk, waarbij het ontdekken van een gedeelde deelruimte over diverse domeinen wordt afgedwongen terwijl de interpreteerbaarheid behouden blijft. Experimenten op vier standaard DG-benchmarks tonen aan dat CPCANet state-of-the-art (SOTA) prestaties levert bij zero-shot overdracht. Bovendien is CPCANet architectuur-agnostisch en vereist het geen datasetspecifieke afstemming, waardoor het een eenvoudige en efficiënte benadering biedt voor het leren van robuuste representaties onder distributieverschuivingen. Code is beschikbaar op https://github.com/wish44165/CPCANet.
English
Domain Generalization (DG) aims to learn representations that remain robust under out-of-distribution (OOD) shifts and generalize effectively to unseen target domains. While recent invariant learning strategies and architectural advances have achieved strong performance, explicitly discovering a structured domain-invariant subspace through second-order statistics remains underexplored. In this work, we propose CPCANet, a novel framework grounded in Common Principal Component Analysis (CPCA), which unrolls the iterative Flury-Gautschi (FG) algorithm into fully differentiable neural layers. This approach integrates the statistical properties of CPCA into an end-to-end trainable framework, enforcing the discovery of a shared subspace across diverse domains while preserving interpretability. Experiments on four standard DG benchmarks demonstrate that CPCANet achieves state-of-the-art (SOTA) performance in zero-shot transfer. Moreover, CPCANet is architecture-agnostic and requires no dataset-specific tuning, providing a simple and efficient approach to learning robust representations under distribution shift. Code is available at https://github.com/wish44165/CPCANet.