EditCrafter : Édition d'images haute résolution sans réglage via un modèle de diffusion pré-entraîné
EditCrafter: Tuning-free High-Resolution Image Editing via Pretrained Diffusion Model
April 11, 2026
Auteurs: Kunho Kim, Sumin Seo, Yongjun Cho, Hyungjin Chung
cs.AI
Résumé
Nous proposons EditCrafter, une méthode d'édition d'images haute résolution qui fonctionne sans ajustement, exploitant des modèles de diffusion texte-image (T2I) pré-entraînés pour traiter des images à des résolutions dépassant largement celles utilisées pendant l'entraînement. L'exploitation des préalables génératifs des modèles de diffusion T2I à grande échelle permet le développement d'un large éventail de nouvelles applications de génération et d'édition. Bien que de nombreuses méthodes d'édition d'images basées sur les modèles de diffusion aient été proposées et présentent des résultats d'édition de haute qualité, elles sont difficiles à appliquer à des images avec des rapports d'aspect arbitraires ou des résolutions plus élevées puisqu'elles ne fonctionnent qu'aux résolutions d'entraînement (512x512 ou 1024x1024). Une application naïve d'une édition par patchs échoue avec des structures d'objets irréalistes et des répétitions. Pour relever ces défis, nous introduisons EditCrafter, un pipeline d'édition simple mais efficace. EditCrafter fonctionne en effectuant d'abord une inversion par tuiles, qui préserve l'identité originale de l'image haute résolution en entrée. Nous proposons en outre un guidage classifieur sans contrainte à amortissement de bruit sur variété (NDCFG++) conçu pour l'édition d'images haute résolution à partir du latent inversé. Nos expériences montrent que notre EditCrafter peut obtenir des résultats d'édition impressionnants sur diverses résolutions sans réglage fin ni optimisation.
English
We propose EditCrafter, a high-resolution image editing method that operates without tuning, leveraging pretrained text-to-image (T2I) diffusion models to process images at resolutions significantly exceeding those used during training. Leveraging the generative priors of large-scale T2I diffusion models enables the development of a wide array of novel generation and editing applications. Although numerous image editing methods have been proposed based on diffusion models and exhibit high-quality editing results, they are difficult to apply to images with arbitrary aspect ratios or higher resolutions since they only work at the training resolutions (512x512 or 1024x1024). Naively applying patch-wise editing fails with unrealistic object structures and repetition. To address these challenges, we introduce EditCrafter, a simple yet effective editing pipeline. EditCrafter operates by first performing tiled inversion, which preserves the original identity of the input high-resolution image. We further propose a noise-damped manifold-constrained classifier-free guidance (NDCFG++) that is tailored for high resolution image editing from the inverted latent. Our experiments show that the our EditCrafter can achieve impressive editing results across various resolutions without fine-tuning and optimization.