ChatPaper.aiChatPaper

PRDP: Predicción de Diferencia de Recompensa Proximal para el Ajuste Fino a Gran Escala de Recompensas en Modelos de Difusión

PRDP: Proximal Reward Difference Prediction for Large-Scale Reward Finetuning of Diffusion Models

February 13, 2024
Autores: Fei Deng, Qifei Wang, Wei Wei, Matthias Grundmann, Tingbo Hou
cs.AI

Resumen

El ajuste fino mediante recompensas ha surgido como un enfoque prometedor para alinear modelos base con objetivos específicos. Se ha logrado un éxito notable en el dominio del lenguaje al utilizar aprendizaje por refuerzo (RL) para maximizar recompensas que reflejan preferencias humanas. Sin embargo, en el dominio visual, los métodos existentes de ajuste fino basados en RL están limitados por su inestabilidad en entrenamientos a gran escala, lo que les impide generalizar a indicaciones complejas y no vistas. En este artículo, proponemos Predicción de Diferencia de Recompensa Proximal (PRDP), permitiendo por primera vez un ajuste fino estable de recompensas en modelos de difusión a gran escala con más de 100K indicaciones. Nuestra innovación clave es el objetivo de Predicción de Diferencia de Recompensa (RDP), que tiene la misma solución óptima que el objetivo de RL, pero con mayor estabilidad en el entrenamiento. Específicamente, el objetivo RDP es un objetivo de regresión supervisada que requiere que el modelo de difusión prediga la diferencia de recompensa entre pares de imágenes generadas a partir de sus trayectorias de eliminación de ruido. Teóricamente demostramos que el modelo de difusión que logra una predicción perfecta de la diferencia de recompensa es exactamente el maximizador del objetivo de RL. Además, desarrollamos un algoritmo en línea con actualizaciones proximales para optimizar de manera estable el objetivo RDP. En los experimentos, demostramos que PRDP puede igualar la capacidad de maximización de recompensas de métodos bien establecidos basados en RL en entrenamientos a pequeña escala. Además, a través de entrenamientos a gran escala en indicaciones de texto del Conjunto de Datos de Preferencias Humanas v2 y el Conjunto de Datos Pick-a-Pic v1, PRDP logra una calidad de generación superior en un conjunto diverso de indicaciones complejas y no vistas, mientras que los métodos basados en RL fracasan por completo.
English
Reward finetuning has emerged as a promising approach to aligning foundation models with downstream objectives. Remarkable success has been achieved in the language domain by using reinforcement learning (RL) to maximize rewards that reflect human preference. However, in the vision domain, existing RL-based reward finetuning methods are limited by their instability in large-scale training, rendering them incapable of generalizing to complex, unseen prompts. In this paper, we propose Proximal Reward Difference Prediction (PRDP), enabling stable black-box reward finetuning for diffusion models for the first time on large-scale prompt datasets with over 100K prompts. Our key innovation is the Reward Difference Prediction (RDP) objective that has the same optimal solution as the RL objective while enjoying better training stability. Specifically, the RDP objective is a supervised regression objective that tasks the diffusion model with predicting the reward difference of generated image pairs from their denoising trajectories. We theoretically prove that the diffusion model that obtains perfect reward difference prediction is exactly the maximizer of the RL objective. We further develop an online algorithm with proximal updates to stably optimize the RDP objective. In experiments, we demonstrate that PRDP can match the reward maximization ability of well-established RL-based methods in small-scale training. Furthermore, through large-scale training on text prompts from the Human Preference Dataset v2 and the Pick-a-Pic v1 dataset, PRDP achieves superior generation quality on a diverse set of complex, unseen prompts whereas RL-based methods completely fail.

Summary

AI-Generated Summary

PDF151December 15, 2024