SliderEdit: Continue beeldbewerking met fijnmazige instructiecontrole
SliderEdit: Continuous Image Editing with Fine-Grained Instruction Control
November 12, 2025
Auteurs: Arman Zarei, Samyadeep Basu, Mobina Pournemat, Sayan Nag, Ryan Rossi, Soheil Feizi
cs.AI
Samenvatting
Op instructies gebaseerde beeldbewerkingsmodellen hebben recent indrukwekkende prestaties geleverd, waardoor complexe bewerkingen aan een invoerbeeld mogelijk zijn vanuit een prompt met meerdere instructies. Deze modellen passen elke instructie in de prompt echter toe met een vaste intensiteit, wat de mogelijkheid van de gebruiker beperkt om de sterkte van individuele bewerkingen precies en continu te controleren. Wij introduceren SliderEdit, een raamwerk voor continue beeldbewerking met fijnmazige, interpreteerbare instructiecontrole. Gegeven een meerdelige bewerkinstructie ontwart SliderEdit de individuele instructies en stelt elke instructie bloot als een globaal getrainde schuifregelaar, waarmee de sterkte soepel kan worden aangepast. In tegenstelling tot eerdere werken die schuifregelaargebaseerde attribuutcontroles introduceerden in tekst-naar-beeld-generatie – wat doorgaans aparte training of fine-tuning voor elk attribuat of concept vereiste – leert onze methode een enkele set low-rank-aanpassingsmatrices die generaliseren over diverse bewerkingen, attributen en compositionele instructies. Dit maakt continue interpolatie langs individuele bewerkingsdimensies mogelijk, waarbij zowel ruimtelijke lokaliteit als globale semantische consistentie behouden blijft. We passen SliderEdit toe op state-of-the-art beeldbewerkingsmodellen, waaronder FLUX-Kontext en Qwen-Image-Edit, en observeren aanzienlijke verbeteringen in bewerkingsbestuurbaarheid, visuele consistentie en gebruikersstuurbaarheid. Voor zover ons bekend zijn wij de eersten die een raamwerk verkennen en voorstellen voor continue, fijnmazige instructiecontrole in op instructies gebaseerde beeldbewerkingsmodellen. Onze resultaten banen de weg voor interactieve, instructiegestuurde beeldmanipulatie met continue en compositionele controle.
English
Instruction-based image editing models have recently achieved impressive performance, enabling complex edits to an input image from a multi-instruction prompt. However, these models apply each instruction in the prompt with a fixed strength, limiting the user's ability to precisely and continuously control the intensity of individual edits. We introduce SliderEdit, a framework for continuous image editing with fine-grained, interpretable instruction control. Given a multi-part edit instruction, SliderEdit disentangles the individual instructions and exposes each as a globally trained slider, allowing smooth adjustment of its strength. Unlike prior works that introduced slider-based attribute controls in text-to-image generation, typically requiring separate training or fine-tuning for each attribute or concept, our method learns a single set of low-rank adaptation matrices that generalize across diverse edits, attributes, and compositional instructions. This enables continuous interpolation along individual edit dimensions while preserving both spatial locality and global semantic consistency. We apply SliderEdit to state-of-the-art image editing models, including FLUX-Kontext and Qwen-Image-Edit, and observe substantial improvements in edit controllability, visual consistency, and user steerability. To the best of our knowledge, we are the first to explore and propose a framework for continuous, fine-grained instruction control in instruction-based image editing models. Our results pave the way for interactive, instruction-driven image manipulation with continuous and compositional control.