ChatPaper.aiChatPaper

Modelado Autoregresivo Visual para la Edición de Imágenes Guiada por Instrucciones

Visual Autoregressive Modeling for Instruction-Guided Image Editing

August 21, 2025
Autores: Qingyang Mao, Qi Cai, Yehao Li, Yingwei Pan, Mingyue Cheng, Ting Yao, Qi Liu, Tao Mei
cs.AI

Resumen

Los recientes avances en los modelos de difusión han aportado una notable fidelidad visual a la edición de imágenes guiada por instrucciones. Sin embargo, su proceso global de eliminación de ruido inherentemente entrelaza la región editada con todo el contexto de la imagen, lo que conduce a modificaciones espurias no deseadas y a un compromiso en la adherencia a las instrucciones de edición. En contraste, los modelos autorregresivos ofrecen un paradigma distinto al formular la síntesis de imágenes como un proceso secuencial sobre tokens visuales discretos. Su mecanismo causal y composicional evita naturalmente los desafíos de adherencia de los métodos basados en difusión. En este artículo, presentamos VAREdit, un marco autorregresivo visual (VAR) que replantea la edición de imágenes como un problema de predicción de la siguiente escala. Condicionado por las características de la imagen fuente y las instrucciones de texto, VAREdit genera características objetivo a múltiples escalas para lograr ediciones precisas. Un desafío central en este paradigma es cómo condicionar efectivamente los tokens de la imagen fuente. Observamos que las características de la fuente a la escala más fina no pueden guiar efectivamente la predicción de las características objetivo más gruesas. Para cerrar esta brecha, introducimos un módulo de Referencia Alineada en Escala (SAR, por sus siglas en inglés), que inyecta información de condicionamiento alineada en escala en la primera capa de autoatención. VAREdit demuestra avances significativos tanto en la adherencia a la edición como en la eficiencia. En puntos de referencia estándar, supera a los principales métodos basados en difusión con un puntaje GPT-Balance un 30\% más alto. Además, completa una edición de 512x512 en 1.2 segundos, lo que lo hace 2.2 veces más rápido que UltraEdit de tamaño similar. Los modelos están disponibles en https://github.com/HiDream-ai/VAREdit.
English
Recent advances in diffusion models have brought remarkable visual fidelity to instruction-guided image editing. However, their global denoising process inherently entangles the edited region with the entire image context, leading to unintended spurious modifications and compromised adherence to editing instructions. In contrast, autoregressive models offer a distinct paradigm by formulating image synthesis as a sequential process over discrete visual tokens. Their causal and compositional mechanism naturally circumvents the adherence challenges of diffusion-based methods. In this paper, we present VAREdit, a visual autoregressive (VAR) framework that reframes image editing as a next-scale prediction problem. Conditioned on source image features and text instructions, VAREdit generates multi-scale target features to achieve precise edits. A core challenge in this paradigm is how to effectively condition the source image tokens. We observe that finest-scale source features cannot effectively guide the prediction of coarser target features. To bridge this gap, we introduce a Scale-Aligned Reference (SAR) module, which injects scale-matched conditioning information into the first self-attention layer. VAREdit demonstrates significant advancements in both editing adherence and efficiency. On standard benchmarks, it outperforms leading diffusion-based methods by 30\%+ higher GPT-Balance score. Moreover, it completes a 512times512 editing in 1.2 seconds, making it 2.2times faster than the similarly sized UltraEdit. The models are available at https://github.com/HiDream-ai/VAREdit.
PDF83August 22, 2025