ChatPaper.aiChatPaper

SliderEdit : Édition d'image continue avec contrôle d'instruction à granularité fine

SliderEdit: Continuous Image Editing with Fine-Grained Instruction Control

November 12, 2025
papers.authors: Arman Zarei, Samyadeep Basu, Mobina Pournemat, Sayan Nag, Ryan Rossi, Soheil Feizi
cs.AI

papers.abstract

Les modèles d'édition d'images basés sur des instructions ont récemment atteint des performances impressionnantes, permettant des modifications complexes d'une image d'entrée à partir d'une instruction multi-étapes. Cependant, ces modèles appliquent chaque instruction de la commande avec une intensité fixe, limitant la capacité de l'utilisateur à contrôler avec précision et continuellement l'intensité des modifications individuelles. Nous présentons SliderEdit, un cadre pour l'édition d'images continue avec un contrôle d'instruction interprétable et à granularité fine. Étant donnée une instruction d'édition en plusieurs parties, SliderEdit désentremêle les instructions individuelles et expose chacune d'elles sous forme d'un curseur entraîné globalement, permettant un ajustement fluide de son intensité. Contrairement aux travaux antérieurs qui ont introduit des contrôles d'attributs par curseur dans la génération d'images à partir de texte, nécessitant généralement un entraînement ou un ajustement fin séparé pour chaque attribut ou concept, notre méthode apprend un unique ensemble de matrices d'adaptation de faible rang qui généralise à travers diverses modifications, attributs et instructions compositionnelles. Cela permet une interpolation continue le long des dimensions de modification individuelles tout en préservant à la fois la localisation spatiale et la cohérence sémantique globale. Nous appliquons SliderEdit aux modèles d'édition d'images de pointe, incluant FLUX-Kontext et Qwen-Image-Edit, et observons des améliorations substantielles en termes de contrôlabilité des modifications, de cohérence visuelle et de capacité de guidage par l'utilisateur. À notre connaissance, nous sommes les premiers à explorer et proposer un cadre pour le contrôle continu et à granularité fine des instructions dans les modèles d'édition d'images basés sur des instructions. Nos résultats ouvrent la voie à une manipulation d'image interactive et pilotée par instructions avec un contrôle continu et compositionnel.
English
Instruction-based image editing models have recently achieved impressive performance, enabling complex edits to an input image from a multi-instruction prompt. However, these models apply each instruction in the prompt with a fixed strength, limiting the user's ability to precisely and continuously control the intensity of individual edits. We introduce SliderEdit, a framework for continuous image editing with fine-grained, interpretable instruction control. Given a multi-part edit instruction, SliderEdit disentangles the individual instructions and exposes each as a globally trained slider, allowing smooth adjustment of its strength. Unlike prior works that introduced slider-based attribute controls in text-to-image generation, typically requiring separate training or fine-tuning for each attribute or concept, our method learns a single set of low-rank adaptation matrices that generalize across diverse edits, attributes, and compositional instructions. This enables continuous interpolation along individual edit dimensions while preserving both spatial locality and global semantic consistency. We apply SliderEdit to state-of-the-art image editing models, including FLUX-Kontext and Qwen-Image-Edit, and observe substantial improvements in edit controllability, visual consistency, and user steerability. To the best of our knowledge, we are the first to explore and propose a framework for continuous, fine-grained instruction control in instruction-based image editing models. Our results pave the way for interactive, instruction-driven image manipulation with continuous and compositional control.
PDF83December 1, 2025