ChatPaper.aiChatPaper

Cosa c'è in un Latente? Sfruttare lo Spazio Latente della Diffusione per la Generalizzazione di Dominio

What's in a Latent? Leveraging Diffusion Latent Space for Domain Generalization

March 9, 2025
Autori: Xavier Thomas, Deepti Ghadiyaram
cs.AI

Abstract

La Generalizzazione di Dominio mira a sviluppare modelli in grado di generalizzare su distribuzioni di dati nuove e mai viste. In questo lavoro, studiamo come le architetture dei modelli e gli obiettivi di pre-addestramento influenzino la ricchezza delle feature e proponiamo un metodo per sfruttarli efficacemente per la generalizzazione di dominio. Nello specifico, dato uno spazio di feature pre-addestrato, scopriamo prima strutture latenti di dominio, denominate pseudo-dominî, che catturano le variazioni specifiche del dominio in modo non supervisionato. Successivamente, arricchiamo i classificatori esistenti con queste rappresentazioni complementari di pseudo-dominio, rendendoli più adatti a gestire diversi domini di test non visti. Analizziamo come diversi spazi di feature pre-addestrati differiscano nelle varianze specifiche del dominio che catturano. I nostri studi empirici rivelano che le feature provenienti da modelli di diffusione eccellono nel separare i domini in assenza di etichette di dominio esplicite e catturano informazioni specifiche del dominio con grande dettaglio. Su 5 dataset, dimostriamo che il nostro framework molto semplice migliora la generalizzazione a domini non visti con un incremento massimo dell'accuratezza di test di oltre il 4% rispetto alla baseline standard della Minimizzazione del Rischio Empirico (ERM). Fondamentalmente, il nostro metodo supera la maggior parte degli algoritmi che accedono alle etichette di dominio durante l'addestramento.
English
Domain Generalization aims to develop models that can generalize to novel and unseen data distributions. In this work, we study how model architectures and pre-training objectives impact feature richness and propose a method to effectively leverage them for domain generalization. Specifically, given a pre-trained feature space, we first discover latent domain structures, referred to as pseudo-domains, that capture domain-specific variations in an unsupervised manner. Next, we augment existing classifiers with these complementary pseudo-domain representations making them more amenable to diverse unseen test domains. We analyze how different pre-training feature spaces differ in the domain-specific variances they capture. Our empirical studies reveal that features from diffusion models excel at separating domains in the absence of explicit domain labels and capture nuanced domain-specific information. On 5 datasets, we show that our very simple framework improves generalization to unseen domains by a maximum test accuracy improvement of over 4% compared to the standard baseline Empirical Risk Minimization (ERM). Crucially, our method outperforms most algorithms that access domain labels during training.

Summary

AI-Generated Summary

PDF42March 11, 2025