ChatPaper.aiChatPaper

GoT-R1: Sfruttare le capacità di ragionamento degli MLLM per la generazione visiva con apprendimento per rinforzo

GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning

May 22, 2025
Autori: Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
cs.AI

Abstract

I modelli di generazione visiva hanno compiuto progressi significativi nella creazione di immagini realistiche a partire da prompt testuali, ma incontrano difficoltà con prompt complessi che specificano più oggetti con relazioni spaziali e attributi precisi. La gestione efficace di tali prompt richiede un ragionamento esplicito sul contenuto semantico e sul layout spaziale. Presentiamo GoT-R1, un framework che applica il reinforcement learning per potenziare il ragionamento semantico-spaziale nella generazione visiva. Basandosi sull'approccio Generation Chain-of-Thought, GoT-R1 consente ai modelli di scoprire autonomamente strategie di ragionamento efficaci oltre i modelli predefiniti, attraverso un reinforcement learning accuratamente progettato. Per raggiungere questo obiettivo, proponiamo un framework di reward a doppio stadio e multidimensionale che sfrutta i MLLM per valutare sia il processo di ragionamento che l'output finale, consentendo una supervisione efficace lungo l'intera pipeline di generazione. Il sistema di reward valuta l'allineamento semantico, l'accuratezza spaziale e la qualità visiva in un approccio unificato. I risultati sperimentali dimostrano miglioramenti significativi sul benchmark T2I-CompBench, in particolare nei task composizionali che coinvolgono relazioni spaziali precise e il binding degli attributi. GoT-R1 avanza lo stato dell'arte nella generazione di immagini trasferendo con successo sofisticate capacità di ragionamento nel dominio della generazione visiva. Per facilitare la ricerca futura, rendiamo disponibili pubblicamente il nostro codice e i modelli pre-addestrati all'indirizzo https://github.com/gogoduan/GoT-R1.
English
Visual generation models have made remarkable progress in creating realistic images from text prompts, yet struggle with complex prompts that specify multiple objects with precise spatial relationships and attributes. Effective handling of such prompts requires explicit reasoning about the semantic content and spatial layout. We present GoT-R1, a framework that applies reinforcement learning to enhance semantic-spatial reasoning in visual generation. Building upon the Generation Chain-of-Thought approach, GoT-R1 enables models to autonomously discover effective reasoning strategies beyond predefined templates through carefully designed reinforcement learning. To achieve this, we propose a dual-stage multi-dimensional reward framework that leverages MLLMs to evaluate both the reasoning process and final output, enabling effective supervision across the entire generation pipeline. The reward system assesses semantic alignment, spatial accuracy, and visual quality in a unified approach. Experimental results demonstrate significant improvements on T2I-CompBench benchmark, particularly in compositional tasks involving precise spatial relationships and attribute binding. GoT-R1 advances the state-of-the-art in image generation by successfully transferring sophisticated reasoning capabilities to the visual generation domain. To facilitate future research, we make our code and pretrained models publicly available at https://github.com/gogoduan/GoT-R1.
PDF272May 23, 2025