GoT-R1 : Libérer les capacités de raisonnement des MLLM pour la génération visuelle grâce à l'apprentissage par renforcement
GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning
May 22, 2025
Auteurs: Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
cs.AI
Résumé
Les modèles de génération visuelle ont réalisé des progrès remarquables dans la création d'images réalistes à partir de prompts textuels, mais peinent encore à traiter des prompts complexes spécifiant plusieurs objets avec des relations spatiales et attributs précis. La gestion efficace de tels prompts nécessite un raisonnement explicite sur le contenu sémantique et la disposition spatiale. Nous présentons GoT-R1, un cadre qui applique l'apprentissage par renforcement pour améliorer le raisonnement sémantique-spatial dans la génération visuelle. S'appuyant sur l'approche Generation Chain-of-Thought, GoT-R1 permet aux modèles de découvrir de manière autonome des stratégies de raisonnement efficaces au-delà des modèles prédéfinis, grâce à un apprentissage par renforcement soigneusement conçu. Pour y parvenir, nous proposons un cadre de récompense multi-dimensionnel à double étape qui exploite les MLLM pour évaluer à la fois le processus de raisonnement et le résultat final, permettant une supervision efficace tout au long du pipeline de génération. Le système de récompense évalue l'alignement sémantique, la précision spatiale et la qualité visuelle de manière unifiée. Les résultats expérimentaux montrent des améliorations significatives sur le benchmark T2I-CompBench, en particulier dans les tâches compositionnelles impliquant des relations spatiales précises et la liaison d'attributs. GoT-R1 fait progresser l'état de l'art en génération d'images en transférant avec succès des capacités de raisonnement sophistiquées au domaine de la génération visuelle. Pour faciliter les recherches futures, nous mettons notre code et nos modèles pré-entraînés à disposition sur https://github.com/gogoduan/GoT-R1.
English
Visual generation models have made remarkable progress in creating realistic
images from text prompts, yet struggle with complex prompts that specify
multiple objects with precise spatial relationships and attributes. Effective
handling of such prompts requires explicit reasoning about the semantic content
and spatial layout. We present GoT-R1, a framework that applies reinforcement
learning to enhance semantic-spatial reasoning in visual generation. Building
upon the Generation Chain-of-Thought approach, GoT-R1 enables models to
autonomously discover effective reasoning strategies beyond predefined
templates through carefully designed reinforcement learning. To achieve this,
we propose a dual-stage multi-dimensional reward framework that leverages MLLMs
to evaluate both the reasoning process and final output, enabling effective
supervision across the entire generation pipeline. The reward system assesses
semantic alignment, spatial accuracy, and visual quality in a unified approach.
Experimental results demonstrate significant improvements on T2I-CompBench
benchmark, particularly in compositional tasks involving precise spatial
relationships and attribute binding. GoT-R1 advances the state-of-the-art in
image generation by successfully transferring sophisticated reasoning
capabilities to the visual generation domain. To facilitate future research, we
make our code and pretrained models publicly available at
https://github.com/gogoduan/GoT-R1.Summary
AI-Generated Summary