潜在空間に何があるのか?ドメイン一般化のための拡散モデル潜在空間の活用
What's in a Latent? Leveraging Diffusion Latent Space for Domain Generalization
March 9, 2025
著者: Xavier Thomas, Deepti Ghadiyaram
cs.AI
要旨
ドメイン汎化は、新規かつ未知のデータ分布に対して一般化可能なモデルを開発することを目的としています。本研究では、モデルアーキテクチャと事前学習の目的が特徴の豊かさにどのような影響を与えるかを調査し、それらをドメイン汎化に効果的に活用する方法を提案します。具体的には、事前学習済みの特徴空間が与えられた場合、まずドメイン固有の変動を教師なしで捉える潜在的なドメイン構造(疑似ドメイン)を発見します。次に、これらの補完的な疑似ドメイン表現を既存の分類器に組み込むことで、多様な未知のテストドメインに対してより適応可能なものにします。異なる事前学習特徴空間が捉えるドメイン固有の分散がどのように異なるかを分析します。我々の実証研究により、拡散モデルから得られた特徴は、明示的なドメインラベルがなくてもドメインを分離するのに優れており、微妙なドメイン固有の情報を捉えることが明らかになりました。5つのデータセットにおいて、我々の非常にシンプルなフレームワークが、標準的なベースラインである経験的リスク最小化(ERM)と比較して、最大4%以上のテスト精度向上をもたらし、未知のドメインへの一般化を改善することを示します。重要なことに、我々の手法は、訓練中にドメインラベルにアクセスするほとんどのアルゴリズムを上回ります。
English
Domain Generalization aims to develop models that can generalize to novel and
unseen data distributions. In this work, we study how model architectures and
pre-training objectives impact feature richness and propose a method to
effectively leverage them for domain generalization. Specifically, given a
pre-trained feature space, we first discover latent domain structures, referred
to as pseudo-domains, that capture domain-specific variations in an
unsupervised manner. Next, we augment existing classifiers with these
complementary pseudo-domain representations making them more amenable to
diverse unseen test domains. We analyze how different pre-training feature
spaces differ in the domain-specific variances they capture. Our empirical
studies reveal that features from diffusion models excel at separating domains
in the absence of explicit domain labels and capture nuanced domain-specific
information. On 5 datasets, we show that our very simple framework improves
generalization to unseen domains by a maximum test accuracy improvement of over
4% compared to the standard baseline Empirical Risk Minimization (ERM).
Crucially, our method outperforms most algorithms that access domain labels
during training.Summary
AI-Generated Summary