Когда предпочтения расходятся: согласование диффузионных моделей с адаптивным DPO, учитывающим меньшинства
When Preferences Diverge: Aligning Diffusion Models with Minority-Aware Adaptive DPO
March 21, 2025
Авторы: Lingfan Zhang, Chen Liu, Chengming Xu, Kai Hu, Donghao Luo, Chengjie Wang, Yanwei Fu, Yuan Yao
cs.AI
Аннотация
В последние годы область генерации изображений достигла значительных успехов, особенно в методах тонкой настройки, которые согласуют модели с универсальными человеческими предпочтениями. В данной статье исследуется ключевая роль данных о предпочтениях в процессе обучения диффузионных моделей, в частности, в контексте Diffusion-DPO и его последующих адаптаций. Мы рассматриваем сложности, связанные с универсальными человеческими предпочтениями в генерации изображений, подчеркивая субъективный характер этих предпочтений и проблемы, возникающие из-за миноритарных образцов в наборах данных о предпочтениях. В ходе пилотных экспериментов мы демонстрируем наличие миноритарных образцов и их негативное влияние на производительность модели. Мы предлагаем Adaptive-DPO — новый подход, который включает метрику, учитывающую миноритарные образцы, в целевую функцию DPO. Эта метрика, включающая внутрианнотаторскую уверенность и межаннотаторскую стабильность, позволяет различать миноритарные и мажоритарные образцы. Мы вводим функцию потерь Adaptive-DPO, которая улучшает функцию потерь DPO двумя способами: усиливает обучение модели на мажоритарных метках и смягчает негативное влияние миноритарных образцов. Наши эксперименты показывают, что этот метод эффективно справляется как с синтетическими миноритарными данными, так и с реальными данными о предпочтениях, прокладывая путь к более эффективным методикам обучения в задачах генерации изображений.
English
In recent years, the field of image generation has witnessed significant
advancements, particularly in fine-tuning methods that align models with
universal human preferences. This paper explores the critical role of
preference data in the training process of diffusion models, particularly in
the context of Diffusion-DPO and its subsequent adaptations. We investigate the
complexities surrounding universal human preferences in image generation,
highlighting the subjective nature of these preferences and the challenges
posed by minority samples in preference datasets. Through pilot experiments, we
demonstrate the existence of minority samples and their detrimental effects on
model performance. We propose Adaptive-DPO -- a novel approach that
incorporates a minority-instance-aware metric into the DPO objective. This
metric, which includes intra-annotator confidence and inter-annotator
stability, distinguishes between majority and minority samples. We introduce an
Adaptive-DPO loss function which improves the DPO loss in two ways: enhancing
the model's learning of majority labels while mitigating the negative impact of
minority samples. Our experiments demonstrate that this method effectively
handles both synthetic minority data and real-world preference data, paving the
way for more effective training methodologies in image generation tasks.Summary
AI-Generated Summary