ChatPaper.aiChatPaper

ReasonGen-R1: CoT voor autoregressieve beeldgeneratiemodellen via SFT en RL

ReasonGen-R1: CoT for Autoregressive Image generation models through SFT and RL

May 30, 2025
Auteurs: Yu Zhang, Yunqi Li, Yifan Yang, Rui Wang, Yuqing Yang, Dai Qi, Jianmin Bao, Dongdong Chen, Chong Luo, Lili Qiu
cs.AI

Samenvatting

Hoewel keten-van-gedachte-redenering en reinforcement learning (RL) doorbraken hebben veroorzaakt in NLP, blijft hun integratie in generatieve visuele modellen onderbelicht. Wij introduceren ReasonGen-R1, een tweestaps raamwerk dat eerst een autoregressief beeldgenerator voorziet van expliciete tekstgebaseerde "denkvaardigheden" via supervised fine-tuning op een nieuw gegenereerde redeneerdataset van geschreven rationale, en vervolgens de uitvoer verfijnt met Group Relative Policy Optimization. Om het model in staat te stellen via tekst te redeneren voordat het beelden genereert, genereren en publiceren wij automatisch een corpus van model-geproduceerde rationale gepaard met visuele prompts, waardoor gecontroleerde planning van objectlay-outs, stijlen en scènecomposities mogelijk wordt. Ons GRPO-algoritme gebruikt beloningssignalen van een voorgetraind visueel taalmodel om de algehele visuele kwaliteit te beoordelen, waarbij het beleid bij elke update wordt geoptimaliseerd. Evaluaties op GenEval, DPG en de T2I-benchmark tonen aan dat ReasonGen-R1 consistent sterke basislijnen en eerdere state-of-the-art modellen overtreft. Meer: aka.ms/reasongen.
English
Although chain-of-thought reasoning and reinforcement learning (RL) have driven breakthroughs in NLP, their integration into generative vision models remains underexplored. We introduce ReasonGen-R1, a two-stage framework that first imbues an autoregressive image generator with explicit text-based "thinking" skills via supervised fine-tuning on a newly generated reasoning dataset of written rationales, and then refines its outputs using Group Relative Policy Optimization. To enable the model to reason through text before generating images, We automatically generate and release a corpus of model crafted rationales paired with visual prompts, enabling controlled planning of object layouts, styles, and scene compositions. Our GRPO algorithm uses reward signals from a pretrained vision language model to assess overall visual quality, optimizing the policy in each update. Evaluations on GenEval, DPG, and the T2I benchmark demonstrate that ReasonGen-R1 consistently outperforms strong baselines and prior state-of-the-art models. More: aka.ms/reasongen.
PDF102June 2, 2025