ChatPaper.aiChatPaper

Обучение с подкреплением для моделей согласованности: Более быстрое поколение изображений по тексту с управляемым вознаграждением.

RL for Consistency Models: Faster Reward Guided Text-to-Image Generation

March 25, 2024
Авторы: Owen Oertell, Jonathan D. Chang, Yiyi Zhang, Kianté Brantley, Wen Sun
cs.AI

Аннотация

Обучение с подкреплением (RL) улучшило направленную генерацию изображений с помощью моделей диффузии путем прямой оптимизации вознаграждений, которые учитывают качество изображения, эстетику и способность следовать инструкциям. Однако полученные генеративные политики наследуют тот же итеративный процесс выборки моделей диффузии, который замедляет процесс генерации. Для преодоления этого ограничения модели согласованности предложили изучение нового класса генеративных моделей, которые прямо отображают шум на данные, что позволяет модели генерировать изображение всего за одну итерацию выборки. В данной работе для оптимизации генеративных моделей текст-изображение для заданных задач вознаграждения и обеспечения быстрого обучения и вывода мы предлагаем фреймворк для донастройки моделей согласованности с помощью RL. Наш фреймворк, названный Обучение с подкреплением для модели согласованности (RLCM), описывает итеративный процесс вывода модели согласованности как процедуру RL. RLCM улучшает возможности генерации текста в изображение по сравнению с RL донастроенными моделями диффузии и обменивает вычисления во время вывода на качество выборки. Экспериментально мы показываем, что RLCM может адаптировать модели согласованности текста в изображение к целям, которые сложно выразить с помощью подсказок, таких как сжимаемость изображения, и те, которые происходят от обратной связи человека, таких как эстетическое качество. По сравнению с RL донастроенными моделями диффузии, RLCM обучается значительно быстрее, улучшает качество генерации, измеренное по целям вознаграждения, и ускоряет процедуру вывода, генерируя изображения высокого качества всего за два шага вывода. Наш код доступен по адресу https://rlcm.owenoertell.com
English
Reinforcement learning (RL) has improved guided image generation with diffusion models by directly optimizing rewards that capture image quality, aesthetics, and instruction following capabilities. However, the resulting generative policies inherit the same iterative sampling process of diffusion models that causes slow generation. To overcome this limitation, consistency models proposed learning a new class of generative models that directly map noise to data, resulting in a model that can generate an image in as few as one sampling iteration. In this work, to optimize text-to-image generative models for task specific rewards and enable fast training and inference, we propose a framework for fine-tuning consistency models via RL. Our framework, called Reinforcement Learning for Consistency Model (RLCM), frames the iterative inference process of a consistency model as an RL procedure. RLCM improves upon RL fine-tuned diffusion models on text-to-image generation capabilities and trades computation during inference time for sample quality. Experimentally, we show that RLCM can adapt text-to-image consistency models to objectives that are challenging to express with prompting, such as image compressibility, and those derived from human feedback, such as aesthetic quality. Comparing to RL finetuned diffusion models, RLCM trains significantly faster, improves the quality of the generation measured under the reward objectives, and speeds up the inference procedure by generating high quality images with as few as two inference steps. Our code is available at https://rlcm.owenoertell.com
PDF163December 15, 2024