Kontinuous Kontext : Contrôle continu de l'intensité pour l'édition d'images basée sur des instructions
Kontinuous Kontext: Continuous Strength Control for Instruction-based Image Editing
October 9, 2025
papers.authors: Rishubh Parihar, Or Patashnik, Daniil Ostashev, R. Venkatesh Babu, Daniel Cohen-Or, Kuan-Chieh Wang
cs.AI
papers.abstract
L'édition d'images basée sur des instructions offre une manière puissante et intuitive de manipuler des images grâce au langage naturel. Cependant, s'appuyer uniquement sur des instructions textuelles limite le contrôle précis de l'étendue des modifications. Nous présentons Kontinuous Kontext, un modèle d'édition piloté par instructions qui introduit une nouvelle dimension de contrôle sur l'intensité des modifications, permettant aux utilisateurs d'ajuster progressivement les modifications, de l'absence de changement à un résultat pleinement réalisé, de manière fluide et continue. Kontinuous Kontext étend un modèle d'édition d'images de pointe pour accepter une entrée supplémentaire, une intensité de modification scalaire, qui est ensuite associée à l'instruction de modification, permettant un contrôle explicite de l'étendue de la modification. Pour injecter cette information scalaire, nous entraînons un réseau projecteur léger qui mappe l'entrée scalaire et l'instruction de modification à des coefficients dans l'espace de modulation du modèle. Pour l'entraînement de notre modèle, nous synthétisons un ensemble de données diversifié de quadruplets image-instruction-modification-intensité en utilisant des modèles génératifs existants, suivi d'une étape de filtrage pour garantir la qualité et la cohérence. Kontinuous Kontext propose une approche unifiée pour un contrôle précis de l'intensité des modifications dans l'édition pilotée par instructions, allant de subtiles à fortes, pour diverses opérations telles que la stylisation, les changements d'attributs, de matériaux, d'arrière-plan et de forme, sans nécessiter d'entraînement spécifique à un attribut.
English
Instruction-based image editing offers a powerful and intuitive way to
manipulate images through natural language. Yet, relying solely on text
instructions limits fine-grained control over the extent of edits. We introduce
Kontinuous Kontext, an instruction-driven editing model that provides a new
dimension of control over edit strength, enabling users to adjust edits
gradually from no change to a fully realized result in a smooth and continuous
manner. Kontinuous Kontext extends a state-of-the-art image editing model to
accept an additional input, a scalar edit strength which is then paired with
the edit instruction, enabling explicit control over the extent of the edit. To
inject this scalar information, we train a lightweight projector network that
maps the input scalar and the edit instruction to coefficients in the model's
modulation space. For training our model, we synthesize a diverse dataset of
image-edit-instruction-strength quadruplets using existing generative models,
followed by a filtering stage to ensure quality and consistency. Kontinuous
Kontext provides a unified approach for fine-grained control over edit strength
for instruction driven editing from subtle to strong across diverse operations
such as stylization, attribute, material, background, and shape changes,
without requiring attribute-specific training.