GoT-R1: Liberando a Capacidade de Raciocínio de MLLM para Geração Visual com Aprendizado por Reforço
GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning
May 22, 2025
Autores: Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
cs.AI
Resumo
Modelos de geração visual têm feito progressos notáveis na criação de imagens realistas a partir de prompts de texto, mas ainda enfrentam dificuldades com prompts complexos que especificam múltiplos objetos com relações espaciais e atributos precisos. O tratamento eficaz desses prompts requer um raciocínio explícito sobre o conteúdo semântico e o layout espacial. Apresentamos o GoT-R1, um framework que aplica aprendizado por reforço para aprimorar o raciocínio semântico-espacial na geração visual. Baseando-se na abordagem Generation Chain-of-Thought, o GoT-R1 permite que os modelos descubram autonomamente estratégias de raciocínio eficazes além de modelos predefinidos, por meio de um aprendizado por reforço cuidadosamente projetado. Para alcançar isso, propomos um framework de recompensa multidimensional em duas etapas que aproveita MLLMs para avaliar tanto o processo de raciocínio quanto o resultado final, permitindo uma supervisão eficaz em todo o pipeline de geração. O sistema de recompensa avalia o alinhamento semântico, a precisão espacial e a qualidade visual de forma unificada. Resultados experimentais demonstram melhorias significativas no benchmark T2I-CompBench, particularmente em tarefas composicionais que envolvem relações espaciais precisas e vinculação de atributos. O GoT-R1 avança o estado da arte na geração de imagens ao transferir com sucesso capacidades sofisticadas de raciocínio para o domínio da geração visual. Para facilitar pesquisas futuras, disponibilizamos nosso código e modelos pré-treinados publicamente em https://github.com/gogoduan/GoT-R1.
English
Visual generation models have made remarkable progress in creating realistic
images from text prompts, yet struggle with complex prompts that specify
multiple objects with precise spatial relationships and attributes. Effective
handling of such prompts requires explicit reasoning about the semantic content
and spatial layout. We present GoT-R1, a framework that applies reinforcement
learning to enhance semantic-spatial reasoning in visual generation. Building
upon the Generation Chain-of-Thought approach, GoT-R1 enables models to
autonomously discover effective reasoning strategies beyond predefined
templates through carefully designed reinforcement learning. To achieve this,
we propose a dual-stage multi-dimensional reward framework that leverages MLLMs
to evaluate both the reasoning process and final output, enabling effective
supervision across the entire generation pipeline. The reward system assesses
semantic alignment, spatial accuracy, and visual quality in a unified approach.
Experimental results demonstrate significant improvements on T2I-CompBench
benchmark, particularly in compositional tasks involving precise spatial
relationships and attribute binding. GoT-R1 advances the state-of-the-art in
image generation by successfully transferring sophisticated reasoning
capabilities to the visual generation domain. To facilitate future research, we
make our code and pretrained models publicly available at
https://github.com/gogoduan/GoT-R1.