ChatPaper.aiChatPaper

Kontinu Kontext: Continue Sterktecontrole voor Instructiegebaseerde Afbeeldingsbewerking

Kontinuous Kontext: Continuous Strength Control for Instruction-based Image Editing

October 9, 2025
Auteurs: Rishubh Parihar, Or Patashnik, Daniil Ostashev, R. Venkatesh Babu, Daniel Cohen-Or, Kuan-Chieh Wang
cs.AI

Samenvatting

Instructiegestuurd beeldbewerken biedt een krachtige en intuïtieve manier om afbeeldingen te manipuleren via natuurlijke taal. Het uitsluitend vertrouwen op tekstinstructies beperkt echter de fijnmazige controle over de omvang van de bewerkingen. Wij introduceren Kontinuous Kontext, een instructiegestuurd bewerkingsmodel dat een nieuwe dimensie van controle biedt over de sterkte van bewerkingen, waardoor gebruikers bewerkingen geleidelijk kunnen aanpassen van geen verandering tot een volledig gerealiseerd resultaat op een vloeiende en continue manier. Kontinuous Kontext breidt een state-of-the-art beeldbewerkingsmodel uit om een extra invoer te accepteren, een scalaire bewerkingssterkte, die vervolgens wordt gekoppeld aan de bewerkingsinstructie, waardoor expliciete controle over de omvang van de bewerking mogelijk wordt. Om deze scalaire informatie in te voegen, trainen we een lichtgewicht projectornetwerk dat de ingevoerde scalar en de bewerkingsinstructie afbeeldt op coëfficiënten in de modulatie-ruimte van het model. Voor het trainen van ons model synthetiseren we een diverse dataset van beeld-bewerkingsinstructie-sterkte-vierlingen met behulp van bestaande generatieve modellen, gevolgd door een filteringsfase om kwaliteit en consistentie te waarborgen. Kontinuous Kontext biedt een uniforme aanpak voor fijnmazige controle over bewerkingssterkte voor instructiegestuurd bewerken, van subtiel tot sterk, voor diverse operaties zoals stilisering, attribuut-, materiaal-, achtergrond- en vormveranderingen, zonder attribuutspecifieke training te vereisen.
English
Instruction-based image editing offers a powerful and intuitive way to manipulate images through natural language. Yet, relying solely on text instructions limits fine-grained control over the extent of edits. We introduce Kontinuous Kontext, an instruction-driven editing model that provides a new dimension of control over edit strength, enabling users to adjust edits gradually from no change to a fully realized result in a smooth and continuous manner. Kontinuous Kontext extends a state-of-the-art image editing model to accept an additional input, a scalar edit strength which is then paired with the edit instruction, enabling explicit control over the extent of the edit. To inject this scalar information, we train a lightweight projector network that maps the input scalar and the edit instruction to coefficients in the model's modulation space. For training our model, we synthesize a diverse dataset of image-edit-instruction-strength quadruplets using existing generative models, followed by a filtering stage to ensure quality and consistency. Kontinuous Kontext provides a unified approach for fine-grained control over edit strength for instruction driven editing from subtle to strong across diverse operations such as stylization, attribute, material, background, and shape changes, without requiring attribute-specific training.
PDF52October 15, 2025