ChatPaper.aiChatPaper

Cuando las preferencias divergen: Alineando modelos de difusión con DPO adaptativo consciente de las minorías

When Preferences Diverge: Aligning Diffusion Models with Minority-Aware Adaptive DPO

March 21, 2025
Autores: Lingfan Zhang, Chen Liu, Chengming Xu, Kai Hu, Donghao Luo, Chengjie Wang, Yanwei Fu, Yuan Yao
cs.AI

Resumen

En los últimos años, el campo de la generación de imágenes ha experimentado avances significativos, particularmente en métodos de ajuste fino que alinean los modelos con preferencias humanas universales. Este artículo explora el papel crucial de los datos de preferencia en el proceso de entrenamiento de modelos de difusión, especialmente en el contexto de Diffusion-DPO y sus adaptaciones posteriores. Investigamos las complejidades relacionadas con las preferencias humanas universales en la generación de imágenes, destacando la naturaleza subjetiva de estas preferencias y los desafíos planteados por las muestras minoritarias en los conjuntos de datos de preferencia. A través de experimentos piloto, demostramos la existencia de muestras minoritarias y sus efectos perjudiciales en el rendimiento del modelo. Proponemos Adaptive-DPO, un enfoque novedoso que incorpora una métrica consciente de las instancias minoritarias en el objetivo de DPO. Esta métrica, que incluye la confianza intra-anotador y la estabilidad inter-anotador, distingue entre muestras mayoritarias y minoritarias. Introducimos una función de pérdida Adaptive-DPO que mejora la pérdida de DPO de dos maneras: mejorando el aprendizaje de etiquetas mayoritarias por parte del modelo mientras mitiga el impacto negativo de las muestras minoritarias. Nuestros experimentos demuestran que este método maneja eficazmente tanto datos sintéticos minoritarios como datos de preferencia del mundo real, allanando el camino para metodologías de entrenamiento más efectivas en tareas de generación de imágenes.
English
In recent years, the field of image generation has witnessed significant advancements, particularly in fine-tuning methods that align models with universal human preferences. This paper explores the critical role of preference data in the training process of diffusion models, particularly in the context of Diffusion-DPO and its subsequent adaptations. We investigate the complexities surrounding universal human preferences in image generation, highlighting the subjective nature of these preferences and the challenges posed by minority samples in preference datasets. Through pilot experiments, we demonstrate the existence of minority samples and their detrimental effects on model performance. We propose Adaptive-DPO -- a novel approach that incorporates a minority-instance-aware metric into the DPO objective. This metric, which includes intra-annotator confidence and inter-annotator stability, distinguishes between majority and minority samples. We introduce an Adaptive-DPO loss function which improves the DPO loss in two ways: enhancing the model's learning of majority labels while mitigating the negative impact of minority samples. Our experiments demonstrate that this method effectively handles both synthetic minority data and real-world preference data, paving the way for more effective training methodologies in image generation tasks.

Summary

AI-Generated Summary

PDF62March 24, 2025