ChatPaper.aiChatPaper

EditCrafter: Edición de imágenes de alta resolución sin ajustes mediante modelo de difusión preentrenado

EditCrafter: Tuning-free High-Resolution Image Editing via Pretrained Diffusion Model

April 11, 2026
Autores: Kunho Kim, Sumin Seo, Yongjun Cho, Hyungjin Chung
cs.AI

Resumen

Proponemos EditCrafter, un método de edición de imágenes de alta resolución que opera sin ajuste fino, aprovechando modelos de difusión texto-a-imagen (T2I) preentrenados para procesar imágenes a resoluciones que superan significativamente las utilizadas durante el entrenamiento. Aprovechar los *priors* generativos de los modelos de difusión T2I a gran escala permite el desarrollo de una amplia gama de aplicaciones novedosas de generación y edición. Aunque se han propuesto numerosos métodos de edición de imágenes basados en modelos de difusión y exhiben resultados de edición de alta calidad, son difíciles de aplicar a imágenes con relaciones de aspecto arbitrarias o resoluciones más altas, ya que solo funcionan en las resoluciones de entrenamiento (512x512 o 1024x1024). Aplicar la edición de manera ingenua por fragmentos (*patches*) falla, produciendo estructuras de objetos poco realistas y repetición. Para abordar estos desafíos, presentamos EditCrafter, una canalización de edición simple pero efectiva. EditCrafter opera realizando primero una inversión en mosaico, que preserva la identidad original de la imagen de alta resolución de entrada. Además, proponemos una guía clasificador-libre con restricciones en la variedad y amortiguamiento de ruido (NDCFG++), diseñada específicamente para la edición de imágenes de alta resolución a partir del latente invertido. Nuestros experimentos muestran que EditCrafter puede lograr resultados de edición impresionantes en varias resoluciones sin necesidad de ajuste fino u optimización.
English
We propose EditCrafter, a high-resolution image editing method that operates without tuning, leveraging pretrained text-to-image (T2I) diffusion models to process images at resolutions significantly exceeding those used during training. Leveraging the generative priors of large-scale T2I diffusion models enables the development of a wide array of novel generation and editing applications. Although numerous image editing methods have been proposed based on diffusion models and exhibit high-quality editing results, they are difficult to apply to images with arbitrary aspect ratios or higher resolutions since they only work at the training resolutions (512x512 or 1024x1024). Naively applying patch-wise editing fails with unrealistic object structures and repetition. To address these challenges, we introduce EditCrafter, a simple yet effective editing pipeline. EditCrafter operates by first performing tiled inversion, which preserves the original identity of the input high-resolution image. We further propose a noise-damped manifold-constrained classifier-free guidance (NDCFG++) that is tailored for high resolution image editing from the inverted latent. Our experiments show that the our EditCrafter can achieve impressive editing results across various resolutions without fine-tuning and optimization.
PDF51April 25, 2026