CPCANet: Tiefe Entfaltung der gemeinsamen Hauptkomponentenanalyse für die Domänengeneralisierung
CPCANet: Deep Unfolding Common Principal Component Analysis for Domain Generalization
May 7, 2026
Autoren: Yu-Hsi Chen, Abd-Krim Seghouane
cs.AI
Zusammenfassung
Domänengeneralisierung (DG) zielt darauf ab, Repräsentationen zu lernen, die unter Out-of-Distribution (OOD)-Verschiebungen robust bleiben und sich effektiv auf unbekannte Zieldomänen verallgemeinern. Obwohl aktuelle Strategien des invarianten Lernens und architektonische Fortschritte starke Leistungen erzielen, ist die explizite Entdeckung eines strukturierten, domäneninvarianten Unterraums durch Statistiken zweiter Ordnung noch wenig erforscht. In dieser Arbeit stellen wir CPCANet vor, ein neuartiges Framework, das auf der Gemeinsamen Hauptkomponentenanalyse (CPCA) basiert und den iterativen Flury-Gautschi (FG)-Algorithmus in vollständig differenzierbare neuronale Schichten entfaltet. Dieser Ansatz integriert die statistischen Eigenschaften von CPCA in ein end-to-end trainierbares Framework und erzwingt die Entdeckung eines gemeinsamen Unterraums über verschiedene Domänen hinweg, während die Interpretierbarkeit erhalten bleibt. Experimente auf vier Standard-DG-Benchmarks zeigen, dass CPCANet im Zero-Shot-Transfer Spitzenleistungen (SOTA) erzielt. Darüber hinaus ist CPCANet architekturunabhängig und erfordert kein datensatzspezifisches Tuning, was eine einfache und effiziente Methode zum Lernen robuster Repräsentationen unter Verteilungsverschiebung bietet. Code ist verfügbar unter https://github.com/wish44165/CPCANet.
English
Domain Generalization (DG) aims to learn representations that remain robust under out-of-distribution (OOD) shifts and generalize effectively to unseen target domains. While recent invariant learning strategies and architectural advances have achieved strong performance, explicitly discovering a structured domain-invariant subspace through second-order statistics remains underexplored. In this work, we propose CPCANet, a novel framework grounded in Common Principal Component Analysis (CPCA), which unrolls the iterative Flury-Gautschi (FG) algorithm into fully differentiable neural layers. This approach integrates the statistical properties of CPCA into an end-to-end trainable framework, enforcing the discovery of a shared subspace across diverse domains while preserving interpretability. Experiments on four standard DG benchmarks demonstrate that CPCANet achieves state-of-the-art (SOTA) performance in zero-shot transfer. Moreover, CPCANet is architecture-agnostic and requires no dataset-specific tuning, providing a simple and efficient approach to learning robust representations under distribution shift. Code is available at https://github.com/wish44165/CPCANet.