ChatPaper.aiChatPaper

Aprendizaje de un modelo de edición de imágenes sin pares de edición de imágenes.

Learning an Image Editing Model without Image Editing Pairs

October 16, 2025
Autores: Nupur Kumari, Sheng-Yu Wang, Nanxuan Zhao, Yotam Nitzan, Yuheng Li, Krishna Kumar Singh, Richard Zhang, Eli Shechtman, Jun-Yan Zhu, Xun Huang
cs.AI

Resumen

Los modelos recientes de edición de imágenes han logrado resultados impresionantes al seguir instrucciones de edición en lenguaje natural, pero dependen de un ajuste supervisado con grandes conjuntos de datos de pares de entrada y objetivo. Este es un cuello de botella crítico, ya que tales pares que ocurren naturalmente son difíciles de curar a gran escala. Las soluciones actuales utilizan pares de entrenamiento sintéticos que aprovechan las capacidades de cero disparos de los modelos existentes. Sin embargo, esto puede propagar y amplificar los artefactos del modelo preentrenado en el modelo final entrenado. En este trabajo, presentamos un nuevo paradigma de entrenamiento que elimina por completo la necesidad de datos emparejados. Nuestro enfoque optimiza directamente un modelo de difusión de pocos pasos al desplegarlo durante el entrenamiento y aprovechar la retroalimentación de los modelos de visión y lenguaje (VLMs, por sus siglas en inglés). Para cada entrada e instrucción de edición, el VLM evalúa si una edición sigue la instrucción y preserva el contenido sin cambios, proporcionando gradientes directos para la optimización de extremo a extremo. Para garantizar la fidelidad visual, incorporamos una pérdida de coincidencia de distribución (DMD, por sus siglas en inglés), que restringe las imágenes generadas a permanecer dentro de la variedad de imágenes aprendida por los modelos preentrenados. Evaluamos nuestro método en puntos de referencia estándar e incluimos un extenso estudio de ablación. Sin ningún dato emparejado, nuestro método se desempeña a la par con varios modelos de edición de imágenes basados en difusión entrenados con extensos datos supervisados emparejados, en el escenario de pocos pasos. Dado el mismo VLM como modelo de recompensa, también superamos técnicas basadas en aprendizaje por refuerzo como Flow-GRPO.
English
Recent image editing models have achieved impressive results while following natural language editing instructions, but they rely on supervised fine-tuning with large datasets of input-target pairs. This is a critical bottleneck, as such naturally occurring pairs are hard to curate at scale. Current workarounds use synthetic training pairs that leverage the zero-shot capabilities of existing models. However, this can propagate and magnify the artifacts of the pretrained model into the final trained model. In this work, we present a new training paradigm that eliminates the need for paired data entirely. Our approach directly optimizes a few-step diffusion model by unrolling it during training and leveraging feedback from vision-language models (VLMs). For each input and editing instruction, the VLM evaluates if an edit follows the instruction and preserves unchanged content, providing direct gradients for end-to-end optimization. To ensure visual fidelity, we incorporate distribution matching loss (DMD), which constrains generated images to remain within the image manifold learned by pretrained models. We evaluate our method on standard benchmarks and include an extensive ablation study. Without any paired data, our method performs on par with various image editing diffusion models trained on extensive supervised paired data, under the few-step setting. Given the same VLM as the reward model, we also outperform RL-based techniques like Flow-GRPO.
PDF62October 17, 2025