ChatPaper.aiChatPaper

Wanneer Voorkeuren Uiteenlopen: Het Afstemmen van Diffusiemodellen met Minderheidsbewuste Adaptieve DPO

When Preferences Diverge: Aligning Diffusion Models with Minority-Aware Adaptive DPO

March 21, 2025
Auteurs: Lingfan Zhang, Chen Liu, Chengming Xu, Kai Hu, Donghao Luo, Chengjie Wang, Yanwei Fu, Yuan Yao
cs.AI

Samenvatting

De afgelopen jaren heeft het vakgebied van beeldgeneratie aanzienlijke vooruitgang geboekt, met name op het gebied van fine-tuningmethoden die modellen afstemmen op universele menselijke voorkeuren. Dit artikel onderzoekt de cruciale rol van voorkeursgegevens in het trainingsproces van diffusiemodellen, met name in de context van Diffusion-DPO en de daaropvolgende aanpassingen. We onderzoeken de complexiteit rond universele menselijke voorkeuren bij beeldgeneratie, waarbij we de subjectieve aard van deze voorkeuren en de uitdagingen die worden veroorzaakt door minderheidsvoorbeelden in voorkeursdatasets belichten. Door middel van pilotexperimenten tonen we het bestaan van minderheidsvoorbeelden en hun nadelige effecten op modelprestaties aan. We stellen Adaptive-DPO voor — een nieuwe benadering die een minderheidsgevoelige metriek integreert in het DPO-doel. Deze metriek, die intra-annotatorbetrouwbaarheid en inter-annotatorstabiliteit omvat, onderscheidt meerderheids- en minderheidsvoorbeelden. We introduceren een Adaptive-DPO-verliesfunctie die de DPO-verliesfunctie op twee manieren verbetert: het verbeteren van het leren van meerderheidslabels door het model, terwijl de negatieve impact van minderheidsvoorbeelden wordt geminimaliseerd. Onze experimenten tonen aan dat deze methode effectief omgaat met zowel synthetische minderheidsgegevens als voorkeursgegevens uit de praktijk, wat de weg vrijmaakt voor effectievere trainingsmethodologieën bij beeldgeneratietaken.
English
In recent years, the field of image generation has witnessed significant advancements, particularly in fine-tuning methods that align models with universal human preferences. This paper explores the critical role of preference data in the training process of diffusion models, particularly in the context of Diffusion-DPO and its subsequent adaptations. We investigate the complexities surrounding universal human preferences in image generation, highlighting the subjective nature of these preferences and the challenges posed by minority samples in preference datasets. Through pilot experiments, we demonstrate the existence of minority samples and their detrimental effects on model performance. We propose Adaptive-DPO -- a novel approach that incorporates a minority-instance-aware metric into the DPO objective. This metric, which includes intra-annotator confidence and inter-annotator stability, distinguishes between majority and minority samples. We introduce an Adaptive-DPO loss function which improves the DPO loss in two ways: enhancing the model's learning of majority labels while mitigating the negative impact of minority samples. Our experiments demonstrate that this method effectively handles both synthetic minority data and real-world preference data, paving the way for more effective training methodologies in image generation tasks.

Summary

AI-Generated Summary

PDF62March 24, 2025