ChatPaper.aiChatPaper

ReasonGen-R1: CoT per modelli di generazione autoregressiva di immagini tramite SFT e RL

ReasonGen-R1: CoT for Autoregressive Image generation models through SFT and RL

May 30, 2025
Autori: Yu Zhang, Yunqi Li, Yifan Yang, Rui Wang, Yuqing Yang, Dai Qi, Jianmin Bao, Dongdong Chen, Chong Luo, Lili Qiu
cs.AI

Abstract

Sebbene il ragionamento a catena di pensiero (chain-of-thought) e l'apprendimento per rinforzo (RL) abbiano guidato importanti progressi nel campo dell'elaborazione del linguaggio naturale (NLP), la loro integrazione nei modelli generativi per la visione rimane poco esplorata. Presentiamo ReasonGen-R1, un framework a due fasi che prima conferisce a un generatore di immagini autoregressivo abilità esplicite di "pensiero" basate su testo attraverso un fine-tuning supervisionato su un nuovo dataset di ragionamenti generati, composto da spiegazioni scritte, e poi affina i suoi output utilizzando l'ottimizzazione relativa delle politiche di gruppo (Group Relative Policy Optimization, GRPO). Per consentire al modello di ragionare attraverso il testo prima di generare immagini, generiamo automaticamente e rendiamo disponibile un corpus di spiegazioni elaborate dal modello, accoppiate a prompt visivi, che permettono una pianificazione controllata di layout di oggetti, stili e composizioni di scene. Il nostro algoritmo GRPO utilizza segnali di ricompensa da un modello preaddestrato di visione e linguaggio per valutare la qualità visiva complessiva, ottimizzando la politica in ogni aggiornamento. Le valutazioni su GenEval, DPG e il benchmark T2I dimostrano che ReasonGen-R1 supera costantemente i baseline robusti e i precedenti modelli all'avanguardia. Maggiori informazioni: aka.ms/reasongen.
English
Although chain-of-thought reasoning and reinforcement learning (RL) have driven breakthroughs in NLP, their integration into generative vision models remains underexplored. We introduce ReasonGen-R1, a two-stage framework that first imbues an autoregressive image generator with explicit text-based "thinking" skills via supervised fine-tuning on a newly generated reasoning dataset of written rationales, and then refines its outputs using Group Relative Policy Optimization. To enable the model to reason through text before generating images, We automatically generate and release a corpus of model crafted rationales paired with visual prompts, enabling controlled planning of object layouts, styles, and scene compositions. Our GRPO algorithm uses reward signals from a pretrained vision language model to assess overall visual quality, optimizing the policy in each update. Evaluations on GenEval, DPG, and the T2I benchmark demonstrate that ReasonGen-R1 consistently outperforms strong baselines and prior state-of-the-art models. More: aka.ms/reasongen.
PDF102June 2, 2025