ChatPaper.aiChatPaper

ReasonGen-R1: CoT para Modelos de Geração de Imagens Autoregressivos por meio de SFT e RL

ReasonGen-R1: CoT for Autoregressive Image generation models through SFT and RL

May 30, 2025
Autores: Yu Zhang, Yunqi Li, Yifan Yang, Rui Wang, Yuqing Yang, Dai Qi, Jianmin Bao, Dongdong Chen, Chong Luo, Lili Qiu
cs.AI

Resumo

Embora o raciocínio em cadeia de pensamento e o aprendizado por reforço (RL) tenham impulsionado avanços significativos em PLN, sua integração em modelos generativos de visão ainda é pouco explorada. Apresentamos o ReasonGen-R1, uma estrutura de duas etapas que primeiro capacita um gerador de imagens autoregressivo com habilidades explícitas de "pensamento" baseadas em texto por meio de ajuste fino supervisionado em um novo conjunto de dados de raciocínio contendo justificativas escritas, e então refina suas saídas utilizando a Otimização de Política Relativa em Grupo. Para permitir que o modelo raciocine por meio de texto antes de gerar imagens, geramos e disponibilizamos automaticamente um corpus de justificativas elaboradas pelo modelo, emparelhadas com prompts visuais, possibilitando o planejamento controlado de layouts de objetos, estilos e composições de cenas. Nosso algoritmo GRPO utiliza sinais de recompensa de um modelo de linguagem visual pré-treinado para avaliar a qualidade visual geral, otimizando a política em cada atualização. Avaliações no GenEval, DPG e no benchmark T2I demonstram que o ReasonGen-R1 supera consistentemente as linhas de base robustas e os modelos state-of-the-art anteriores. Mais informações: aka.ms/reasongen.
English
Although chain-of-thought reasoning and reinforcement learning (RL) have driven breakthroughs in NLP, their integration into generative vision models remains underexplored. We introduce ReasonGen-R1, a two-stage framework that first imbues an autoregressive image generator with explicit text-based "thinking" skills via supervised fine-tuning on a newly generated reasoning dataset of written rationales, and then refines its outputs using Group Relative Policy Optimization. To enable the model to reason through text before generating images, We automatically generate and release a corpus of model crafted rationales paired with visual prompts, enabling controlled planning of object layouts, styles, and scene compositions. Our GRPO algorithm uses reward signals from a pretrained vision language model to assess overall visual quality, optimizing the policy in each update. Evaluations on GenEval, DPG, and the T2I benchmark demonstrate that ReasonGen-R1 consistently outperforms strong baselines and prior state-of-the-art models. More: aka.ms/reasongen.
PDF102June 2, 2025