ChatPaper.aiChatPaper

Quand les préférences divergent : Aligner les modèles de diffusion avec une approche adaptative DPO consciente des minorités

When Preferences Diverge: Aligning Diffusion Models with Minority-Aware Adaptive DPO

March 21, 2025
Auteurs: Lingfan Zhang, Chen Liu, Chengming Xu, Kai Hu, Donghao Luo, Chengjie Wang, Yanwei Fu, Yuan Yao
cs.AI

Résumé

Ces dernières années, le domaine de la génération d'images a connu des avancées significatives, notamment dans les méthodes de fine-tuning qui alignent les modèles avec les préférences humaines universelles. Cet article explore le rôle crucial des données de préférence dans le processus d'entraînement des modèles de diffusion, en particulier dans le contexte de Diffusion-DPO et de ses adaptations ultérieures. Nous étudions les complexités liées aux préférences humaines universelles dans la génération d'images, en mettant en lumière la nature subjective de ces préférences et les défis posés par les échantillons minoritaires dans les ensembles de données de préférence. À travers des expériences pilotes, nous démontrons l'existence d'échantillons minoritaires et leurs effets néfastes sur les performances du modèle. Nous proposons Adaptive-DPO — une approche novatrice qui intègre une métrique sensible aux instances minoritaires dans l'objectif DPO. Cette métrique, qui inclut la confiance intra-annotateur et la stabilité inter-annotateur, distingue les échantillons majoritaires des échantillons minoritaires. Nous introduisons une fonction de perte Adaptive-DPO qui améliore la perte DPO de deux manières : en renforçant l'apprentissage des labels majoritaires par le modèle tout en atténuant l'impact négatif des échantillons minoritaires. Nos expériences montrent que cette méthode gère efficacement à la fois les données minoritaires synthétiques et les données de préférence réelles, ouvrant la voie à des méthodologies d'entraînement plus efficaces pour les tâches de génération d'images.
English
In recent years, the field of image generation has witnessed significant advancements, particularly in fine-tuning methods that align models with universal human preferences. This paper explores the critical role of preference data in the training process of diffusion models, particularly in the context of Diffusion-DPO and its subsequent adaptations. We investigate the complexities surrounding universal human preferences in image generation, highlighting the subjective nature of these preferences and the challenges posed by minority samples in preference datasets. Through pilot experiments, we demonstrate the existence of minority samples and their detrimental effects on model performance. We propose Adaptive-DPO -- a novel approach that incorporates a minority-instance-aware metric into the DPO objective. This metric, which includes intra-annotator confidence and inter-annotator stability, distinguishes between majority and minority samples. We introduce an Adaptive-DPO loss function which improves the DPO loss in two ways: enhancing the model's learning of majority labels while mitigating the negative impact of minority samples. Our experiments demonstrate that this method effectively handles both synthetic minority data and real-world preference data, paving the way for more effective training methodologies in image generation tasks.

Summary

AI-Generated Summary

PDF62March 24, 2025