Kontinu Kontext: Continue Sterktecontrole voor Instructiegebaseerde Afbeeldingsbewerking
Kontinuous Kontext: Continuous Strength Control for Instruction-based Image Editing
October 9, 2025
Auteurs: Rishubh Parihar, Or Patashnik, Daniil Ostashev, R. Venkatesh Babu, Daniel Cohen-Or, Kuan-Chieh Wang
cs.AI
Samenvatting
Instructiegestuurd beeldbewerken biedt een krachtige en intuïtieve manier om afbeeldingen te manipuleren via natuurlijke taal. Het uitsluitend vertrouwen op tekstinstructies beperkt echter de fijnmazige controle over de omvang van de bewerkingen. Wij introduceren Kontinuous Kontext, een instructiegestuurd bewerkingsmodel dat een nieuwe dimensie van controle biedt over de sterkte van bewerkingen, waardoor gebruikers bewerkingen geleidelijk kunnen aanpassen van geen verandering tot een volledig gerealiseerd resultaat op een vloeiende en continue manier. Kontinuous Kontext breidt een state-of-the-art beeldbewerkingsmodel uit om een extra invoer te accepteren, een scalaire bewerkingssterkte, die vervolgens wordt gekoppeld aan de bewerkingsinstructie, waardoor expliciete controle over de omvang van de bewerking mogelijk wordt. Om deze scalaire informatie in te voegen, trainen we een lichtgewicht projectornetwerk dat de ingevoerde scalar en de bewerkingsinstructie afbeeldt op coëfficiënten in de modulatie-ruimte van het model. Voor het trainen van ons model synthetiseren we een diverse dataset van beeld-bewerkingsinstructie-sterkte-vierlingen met behulp van bestaande generatieve modellen, gevolgd door een filteringsfase om kwaliteit en consistentie te waarborgen. Kontinuous Kontext biedt een uniforme aanpak voor fijnmazige controle over bewerkingssterkte voor instructiegestuurd bewerken, van subtiel tot sterk, voor diverse operaties zoals stilisering, attribuut-, materiaal-, achtergrond- en vormveranderingen, zonder attribuutspecifieke training te vereisen.
English
Instruction-based image editing offers a powerful and intuitive way to
manipulate images through natural language. Yet, relying solely on text
instructions limits fine-grained control over the extent of edits. We introduce
Kontinuous Kontext, an instruction-driven editing model that provides a new
dimension of control over edit strength, enabling users to adjust edits
gradually from no change to a fully realized result in a smooth and continuous
manner. Kontinuous Kontext extends a state-of-the-art image editing model to
accept an additional input, a scalar edit strength which is then paired with
the edit instruction, enabling explicit control over the extent of the edit. To
inject this scalar information, we train a lightweight projector network that
maps the input scalar and the edit instruction to coefficients in the model's
modulation space. For training our model, we synthesize a diverse dataset of
image-edit-instruction-strength quadruplets using existing generative models,
followed by a filtering stage to ensure quality and consistency. Kontinuous
Kontext provides a unified approach for fine-grained control over edit strength
for instruction driven editing from subtle to strong across diverse operations
such as stylization, attribute, material, background, and shape changes,
without requiring attribute-specific training.