REASONEDIT: Rumo a Modelos de Edição de Imagens Aprimorados com Raciocínio
REASONEDIT: Towards Reasoning-Enhanced Image Editing Models
November 27, 2025
Autores: Fukun Yin, Shiyu Liu, Yucheng Han, Zhibo Wang, Peng Xing, Rui Wang, Wei Cheng, Yingming Wang, Aojie Li, Zixin Yin, Pengtao Chen, Xiangyu Zhang, Daxin Jiang, Xianfang Zeng, Gang Yu
cs.AI
Resumo
Os avanços recentes em modelos de edição de imagens têm demonstrado progresso notável. Um design arquitetônico comum acopla um codificador de modelo de linguagem grande multimodal (MLLM) a um decodificador de difusão, como observado em sistemas como Step1X-Edit e Qwen-Image-Edit, nos quais o MLLM codifica tanto a imagem de referência quanto a instrução, mas permanece congelado durante o treinamento. Neste trabalho, demonstramos que desbloquear as capacidades de raciocínio do MLLM pode expandir ainda mais os limites dos modelos de edição. Especificamente, exploramos dois mecanismos de raciocínio, pensamento e reflexão, que aprimoram a compreensão de instruções e a precisão da edição. Com base nisso, nosso framework proposto permite a edição de imagens em um loop de pensamento-edição-reflexão: o mecanismo de pensamento aproveita o conhecimento mundial do MLLM para interpretar instruções abstratas, enquanto a reflexão revisa os resultados da edição, corrige automaticamente manipulações não intencionais e identifica a rodada de parada. Experimentos extensivos demonstram que nossa abordagem de raciocínio alcança ganhos significativos de desempenho, com melhorias de ImgEdit (+4,3%), GEdit (+4,7%) e Kris (+8,2%) ao inicializar nossa DiT a partir do Step1X-Edit (ReasonEdit-S), e também supera métodos anteriores de código aberto tanto em GEdit quanto em Kris quando integrado ao Qwen-Image-Edit (ReasonEdit-Q).
English
Recent advances in image editing models have shown remarkable progress. A common architectural design couples a multimodal large language model (MLLM) encoder with a diffusion decoder, as seen in systems such as Step1X-Edit and Qwen-Image-Edit, where the MLLM encodes both the reference image and the instruction but remains frozen during training. In this work, we demonstrate that unlocking the reasoning capabilities of MLLM can further push the boundaries of editing models. Specifically, we explore two reasoning mechanisms, thinking and reflection, which enhance instruction understanding and editing accuracy. Based on that, our proposed framework enables image editing in a thinking-editing-reflection loop: the thinking mechanism leverages the world knowledge of MLLM to interpret abstract instructions, while the reflection reviews editing results, automatically corrects unintended manipulations, and identifies the stopping round. Extensive experiments demonstrate that our reasoning approach achieves significant performance gains, with improvements of ImgEdit (+4.3%), GEdit (+4.7%), and Kris (+8.2%) when initializing our DiT from the Step1X-Edit (ReasonEdit-S), and also outperforms previous open-source methods on both GEdit and Kris when integrated with Qwen-Image-Edit (ReasonEdit-Q).