ChatPaper.aiChatPaper

Quando le Preferenze Divergono: Allineare i Modelli di Diffusione con DPO Adattivo Consapevole delle Minoranze

When Preferences Diverge: Aligning Diffusion Models with Minority-Aware Adaptive DPO

March 21, 2025
Autori: Lingfan Zhang, Chen Liu, Chengming Xu, Kai Hu, Donghao Luo, Chengjie Wang, Yanwei Fu, Yuan Yao
cs.AI

Abstract

Negli ultimi anni, il campo della generazione di immagini ha assistito a progressi significativi, in particolare nei metodi di fine-tuning che allineano i modelli con le preferenze umane universali. Questo articolo esplora il ruolo cruciale dei dati di preferenza nel processo di addestramento dei modelli di diffusione, specialmente nel contesto di Diffusion-DPO e dei suoi successivi adattamenti. Investigiamo le complessità legate alle preferenze umane universali nella generazione di immagini, evidenziando la natura soggettiva di queste preferenze e le sfide poste dai campioni minoritari nei dataset di preferenza. Attraverso esperimenti pilota, dimostriamo l'esistenza di campioni minoritari e i loro effetti negativi sulle prestazioni del modello. Proponiamo Adaptive-DPO — un approccio innovativo che incorpora una metrica consapevole delle istanze minoritarie nell'obiettivo DPO. Questa metrica, che include la fiducia intra-annotatore e la stabilità inter-annotatore, distingue tra campioni maggioritari e minoritari. Introduciamo una funzione di perdita Adaptive-DPO che migliora la perdita DPO in due modi: potenziando l'apprendimento delle etichette maggioritarie da parte del modello mentre mitiga l'impatto negativo dei campioni minoritari. I nostri esperimenti dimostrano che questo metodo gestisce efficacemente sia i dati sintetici minoritari che i dati di preferenza del mondo reale, aprendo la strada a metodologie di addestramento più efficaci nei compiti di generazione di immagini.
English
In recent years, the field of image generation has witnessed significant advancements, particularly in fine-tuning methods that align models with universal human preferences. This paper explores the critical role of preference data in the training process of diffusion models, particularly in the context of Diffusion-DPO and its subsequent adaptations. We investigate the complexities surrounding universal human preferences in image generation, highlighting the subjective nature of these preferences and the challenges posed by minority samples in preference datasets. Through pilot experiments, we demonstrate the existence of minority samples and their detrimental effects on model performance. We propose Adaptive-DPO -- a novel approach that incorporates a minority-instance-aware metric into the DPO objective. This metric, which includes intra-annotator confidence and inter-annotator stability, distinguishes between majority and minority samples. We introduce an Adaptive-DPO loss function which improves the DPO loss in two ways: enhancing the model's learning of majority labels while mitigating the negative impact of minority samples. Our experiments demonstrate that this method effectively handles both synthetic minority data and real-world preference data, paving the way for more effective training methodologies in image generation tasks.
PDF62March 24, 2025