ChatPaper.aiChatPaper

Inpaint4Drag: Hergebruik van Inpainting-modellen voor Drag-Gebaseerde Afbeeldingsbewerking via Bidirectionele Vervorming

Inpaint4Drag: Repurposing Inpainting Models for Drag-Based Image Editing via Bidirectional Warping

September 4, 2025
Auteurs: Jingyi Lu, Kai Han
cs.AI

Samenvatting

Drag-gebaseerde beeldbewerking is naar voren gekomen als een krachtig paradigma voor intuïtieve beeldmanipulatie. Bestaande benaderingen zijn echter voornamelijk gebaseerd op het manipuleren van de latente ruimte van generatieve modellen, wat leidt tot beperkte precisie, vertraagde feedback en model-specifieke beperkingen. Daarom presenteren wij Inpaint4Drag, een nieuw raamwerk dat drag-gebaseerde bewerking ontbindt in bidirectionele vervorming in de pixelruimte en beeldinpainting. Geïnspireerd door elastische objectvervorming in de fysieke wereld, behandelen wij beeldregio's als vervormbare materialen die hun natuurlijke vorm behouden onder gebruikersmanipulatie. Onze methode bereikt real-time vervormingsvoorbeelden (0,01s) en efficiënte inpainting (0,3s) bij een resolutie van 512x512, wat de interactie-ervaring aanzienlijk verbetert in vergelijking met bestaande methoden die minuten per bewerking vereisen. Door drag-inputs direct om te zetten in standaard inpainting-formaten, fungeert onze aanpak als een universele adapter voor elk inpainting-model zonder architectuurwijzigingen, waardoor automatisch alle toekomstige verbeteringen in inpainting-technologie worden geërfd. Uitgebreide experimenten tonen aan dat onze methode superieure visuele kwaliteit en precieze controle bereikt, terwijl real-time prestaties worden behouden. Projectpagina: https://visual-ai.github.io/inpaint4drag/
English
Drag-based image editing has emerged as a powerful paradigm for intuitive image manipulation. However, existing approaches predominantly rely on manipulating the latent space of generative models, leading to limited precision, delayed feedback, and model-specific constraints. Accordingly, we present Inpaint4Drag, a novel framework that decomposes drag-based editing into pixel-space bidirectional warping and image inpainting. Inspired by elastic object deformation in the physical world, we treat image regions as deformable materials that maintain natural shape under user manipulation. Our method achieves real-time warping previews (0.01s) and efficient inpainting (0.3s) at 512x512 resolution, significantly improving the interaction experience compared to existing methods that require minutes per edit. By transforming drag inputs directly into standard inpainting formats, our approach serves as a universal adapter for any inpainting model without architecture modification, automatically inheriting all future improvements in inpainting technology. Extensive experiments demonstrate that our method achieves superior visual quality and precise control while maintaining real-time performance. Project page: https://visual-ai.github.io/inpaint4drag/
PDF62September 9, 2025