ChatPaper.aiChatPaper

Alinhando Modelos de Difusão de Texto para Imagem com Retropropagação de Recompensa

Aligning Text-to-Image Diffusion Models with Reward Backpropagation

October 5, 2023
Autores: Mihir Prabhudesai, Anirudh Goyal, Deepak Pathak, Katerina Fragkiadaki
cs.AI

Resumo

Modelos de difusão texto-imagem surgiram recentemente na vanguarda da geração de imagens, impulsionados por conjuntos de dados de treinamento texto-imagem em grande escala, não supervisionados ou fracamente supervisionados. Devido ao seu treinamento não supervisionado, controlar seu comportamento em tarefas subsequentes, como maximizar a qualidade da imagem percebida por humanos, o alinhamento imagem-texto ou a geração ética de imagens, é desafiador. Trabalhos recentes ajustam modelos de difusão para funções de recompensa subsequentes usando aprendizado por reforço tradicional, conhecido pela alta variância dos estimadores de gradiente. Neste artigo, propomos o AlignProp, um método que alinha modelos de difusão a funções de recompensa subsequentes usando retropropagação end-to-end do gradiente de recompensa através do processo de remoção de ruído. Embora uma implementação ingênua dessa retropropagação exigiria recursos de memória proibitivos para armazenar as derivadas parciais de modelos modernos texto-imagem, o AlignProp ajusta módulos de pesos de adaptadores de baixa classificação e utiliza checkpointing de gradiente, tornando seu uso de memória viável. Testamos o AlignProp no ajuste fino de modelos de difusão para vários objetivos, como alinhamento semântico imagem-texto, estética, compressibilidade e controlabilidade do número de objetos presentes, bem como suas combinações. Mostramos que o AlignProp alcança recompensas mais altas em menos etapas de treinamento do que as alternativas, sendo conceitualmente mais simples, tornando-o uma escolha direta para otimizar modelos de difusão para funções de recompensa diferenciáveis de interesse. Código e resultados de visualização estão disponíveis em https://align-prop.github.io/.
English
Text-to-image diffusion models have recently emerged at the forefront of image generation, powered by very large-scale unsupervised or weakly supervised text-to-image training datasets. Due to their unsupervised training, controlling their behavior in downstream tasks, such as maximizing human-perceived image quality, image-text alignment, or ethical image generation, is difficult. Recent works finetune diffusion models to downstream reward functions using vanilla reinforcement learning, notorious for the high variance of the gradient estimators. In this paper, we propose AlignProp, a method that aligns diffusion models to downstream reward functions using end-to-end backpropagation of the reward gradient through the denoising process. While naive implementation of such backpropagation would require prohibitive memory resources for storing the partial derivatives of modern text-to-image models, AlignProp finetunes low-rank adapter weight modules and uses gradient checkpointing, to render its memory usage viable. We test AlignProp in finetuning diffusion models to various objectives, such as image-text semantic alignment, aesthetics, compressibility and controllability of the number of objects present, as well as their combinations. We show AlignProp achieves higher rewards in fewer training steps than alternatives, while being conceptually simpler, making it a straightforward choice for optimizing diffusion models for differentiable reward functions of interest. Code and Visualization results are available at https://align-prop.github.io/.
PDF224December 15, 2024