ChatPaper.aiChatPaper

REASONEDIT: Verso Modelli di Modifica delle Immagini Potenziati dal Ragionamento

REASONEDIT: Towards Reasoning-Enhanced Image Editing Models

November 27, 2025
Autori: Fukun Yin, Shiyu Liu, Yucheng Han, Zhibo Wang, Peng Xing, Rui Wang, Wei Cheng, Yingming Wang, Aojie Li, Zixin Yin, Pengtao Chen, Xiangyu Zhang, Daxin Jiang, Xianfang Zeng, Gang Yu
cs.AI

Abstract

I recenti progressi nei modelli di editing di immagini hanno mostrato sviluppi notevoli. Una progettazione architetturale comune prevede l'accoppiamento di un encoder multimodale basato su large language model (MLLM) con un decoder di diffusione, come si osserva in sistemi quali Step1X-Edit e Qwen-Image-Edit, dove l'MLLM codifica sia l'immagine di riferimento che l'istruzione ma rimane congelato durante l'addestramento. In questo lavoro, dimostriamo che sbloccare le capacità di ragionamento dell'MLLM può spingere ulteriormente i confini dei modelli di editing. Nello specifico, esploriamo due meccanismi di ragionamento, pensiero e riflessione, che migliorano la comprensione delle istruzioni e l'accuratezza dell'editing. Su questa base, la nostra proposta di framework abilita l'editing di immagini in un ciclo pensiero-editing-riflessione: il meccanismo di pensiero sfrutta la conoscenza del mondo dell'MLLM per interpretare istruzioni astratte, mentre la riflessione analizza i risultati dell'editing, corregge automaticamente manipolazioni non volute e identifica il round di arresto. Esperimenti estensivi dimostrano che il nostro approccio basato sul ragionamento ottiene significativi miglioramenti delle prestazioni, con incrementi di ImgEdit (+4.3%), GEdit (+4.7%) e Kris (+8.2%) quando inizializziamo la nostra DiT a partire da Step1X-Edit (ReasonEdit-S), e supera anche i precedenti metodi open-source sia su GEdit che su Kris quando integrato con Qwen-Image-Edit (ReasonEdit-Q).
English
Recent advances in image editing models have shown remarkable progress. A common architectural design couples a multimodal large language model (MLLM) encoder with a diffusion decoder, as seen in systems such as Step1X-Edit and Qwen-Image-Edit, where the MLLM encodes both the reference image and the instruction but remains frozen during training. In this work, we demonstrate that unlocking the reasoning capabilities of MLLM can further push the boundaries of editing models. Specifically, we explore two reasoning mechanisms, thinking and reflection, which enhance instruction understanding and editing accuracy. Based on that, our proposed framework enables image editing in a thinking-editing-reflection loop: the thinking mechanism leverages the world knowledge of MLLM to interpret abstract instructions, while the reflection reviews editing results, automatically corrects unintended manipulations, and identifies the stopping round. Extensive experiments demonstrate that our reasoning approach achieves significant performance gains, with improvements of ImgEdit (+4.3%), GEdit (+4.7%), and Kris (+8.2%) when initializing our DiT from the Step1X-Edit (ReasonEdit-S), and also outperforms previous open-source methods on both GEdit and Kris when integrated with Qwen-Image-Edit (ReasonEdit-Q).
PDF391December 2, 2025