ChatPaper.aiChatPaper

GoT-R1 : Libérer les capacités de raisonnement des MLLM pour la génération visuelle grâce à l'apprentissage par renforcement

GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning

May 22, 2025
Auteurs: Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
cs.AI

Résumé

Les modèles de génération visuelle ont réalisé des progrès remarquables dans la création d'images réalistes à partir de prompts textuels, mais peinent encore à traiter des prompts complexes spécifiant plusieurs objets avec des relations spatiales et attributs précis. La gestion efficace de tels prompts nécessite un raisonnement explicite sur le contenu sémantique et la disposition spatiale. Nous présentons GoT-R1, un cadre qui applique l'apprentissage par renforcement pour améliorer le raisonnement sémantique-spatial dans la génération visuelle. S'appuyant sur l'approche Generation Chain-of-Thought, GoT-R1 permet aux modèles de découvrir de manière autonome des stratégies de raisonnement efficaces au-delà des modèles prédéfinis, grâce à un apprentissage par renforcement soigneusement conçu. Pour y parvenir, nous proposons un cadre de récompense multi-dimensionnel à double étape qui exploite les MLLM pour évaluer à la fois le processus de raisonnement et le résultat final, permettant une supervision efficace tout au long du pipeline de génération. Le système de récompense évalue l'alignement sémantique, la précision spatiale et la qualité visuelle de manière unifiée. Les résultats expérimentaux montrent des améliorations significatives sur le benchmark T2I-CompBench, en particulier dans les tâches compositionnelles impliquant des relations spatiales précises et la liaison d'attributs. GoT-R1 fait progresser l'état de l'art en génération d'images en transférant avec succès des capacités de raisonnement sophistiquées au domaine de la génération visuelle. Pour faciliter les recherches futures, nous mettons notre code et nos modèles pré-entraînés à disposition sur https://github.com/gogoduan/GoT-R1.
English
Visual generation models have made remarkable progress in creating realistic images from text prompts, yet struggle with complex prompts that specify multiple objects with precise spatial relationships and attributes. Effective handling of such prompts requires explicit reasoning about the semantic content and spatial layout. We present GoT-R1, a framework that applies reinforcement learning to enhance semantic-spatial reasoning in visual generation. Building upon the Generation Chain-of-Thought approach, GoT-R1 enables models to autonomously discover effective reasoning strategies beyond predefined templates through carefully designed reinforcement learning. To achieve this, we propose a dual-stage multi-dimensional reward framework that leverages MLLMs to evaluate both the reasoning process and final output, enabling effective supervision across the entire generation pipeline. The reward system assesses semantic alignment, spatial accuracy, and visual quality in a unified approach. Experimental results demonstrate significant improvements on T2I-CompBench benchmark, particularly in compositional tasks involving precise spatial relationships and attribute binding. GoT-R1 advances the state-of-the-art in image generation by successfully transferring sophisticated reasoning capabilities to the visual generation domain. To facilitate future research, we make our code and pretrained models publicly available at https://github.com/gogoduan/GoT-R1.

Summary

AI-Generated Summary

PDF232May 23, 2025