ChatPaper.aiChatPaper

潜在空間に何があるのか?ドメイン一般化のための拡散モデル潜在空間の活用

What's in a Latent? Leveraging Diffusion Latent Space for Domain Generalization

March 9, 2025
著者: Xavier Thomas, Deepti Ghadiyaram
cs.AI

要旨

ドメイン汎化は、新規かつ未知のデータ分布に対して一般化可能なモデルを開発することを目的としています。本研究では、モデルアーキテクチャと事前学習の目的が特徴の豊かさにどのような影響を与えるかを調査し、それらをドメイン汎化に効果的に活用する方法を提案します。具体的には、事前学習済みの特徴空間が与えられた場合、まずドメイン固有の変動を教師なしで捉える潜在的なドメイン構造(疑似ドメイン)を発見します。次に、これらの補完的な疑似ドメイン表現を既存の分類器に組み込むことで、多様な未知のテストドメインに対してより適応可能なものにします。異なる事前学習特徴空間が捉えるドメイン固有の分散がどのように異なるかを分析します。我々の実証研究により、拡散モデルから得られた特徴は、明示的なドメインラベルがなくてもドメインを分離するのに優れており、微妙なドメイン固有の情報を捉えることが明らかになりました。5つのデータセットにおいて、我々の非常にシンプルなフレームワークが、標準的なベースラインである経験的リスク最小化(ERM)と比較して、最大4%以上のテスト精度向上をもたらし、未知のドメインへの一般化を改善することを示します。重要なことに、我々の手法は、訓練中にドメインラベルにアクセスするほとんどのアルゴリズムを上回ります。
English
Domain Generalization aims to develop models that can generalize to novel and unseen data distributions. In this work, we study how model architectures and pre-training objectives impact feature richness and propose a method to effectively leverage them for domain generalization. Specifically, given a pre-trained feature space, we first discover latent domain structures, referred to as pseudo-domains, that capture domain-specific variations in an unsupervised manner. Next, we augment existing classifiers with these complementary pseudo-domain representations making them more amenable to diverse unseen test domains. We analyze how different pre-training feature spaces differ in the domain-specific variances they capture. Our empirical studies reveal that features from diffusion models excel at separating domains in the absence of explicit domain labels and capture nuanced domain-specific information. On 5 datasets, we show that our very simple framework improves generalization to unseen domains by a maximum test accuracy improvement of over 4% compared to the standard baseline Empirical Risk Minimization (ERM). Crucially, our method outperforms most algorithms that access domain labels during training.

Summary

AI-Generated Summary

PDF42March 11, 2025