ChatPaper.aiChatPaper

Kontinuous Kontext: Control Continuo de Fortaleza para la Edición de Imágenes Basada en Instrucciones

Kontinuous Kontext: Continuous Strength Control for Instruction-based Image Editing

October 9, 2025
Autores: Rishubh Parihar, Or Patashnik, Daniil Ostashev, R. Venkatesh Babu, Daniel Cohen-Or, Kuan-Chieh Wang
cs.AI

Resumen

La edición de imágenes basada en instrucciones ofrece una forma poderosa e intuitiva de manipular imágenes mediante lenguaje natural. Sin embargo, depender únicamente de instrucciones textuales limita el control detallado sobre el alcance de las ediciones. Presentamos Kontinuous Kontext, un modelo de edición impulsado por instrucciones que proporciona una nueva dimensión de control sobre la intensidad de la edición, permitiendo a los usuarios ajustar las modificaciones de manera gradual, desde ningún cambio hasta un resultado completamente realizado, de forma suave y continua. Kontinuous Kontext extiende un modelo de edición de imágenes de última generación para aceptar una entrada adicional: un valor escalar de intensidad de edición que se combina con la instrucción de edición, permitiendo un control explícito sobre el alcance de la modificación. Para incorporar esta información escalar, entrenamos una red de proyección ligera que mapea el valor escalar de entrada y la instrucción de edición a coeficientes en el espacio de modulación del modelo. Para entrenar nuestro modelo, sintetizamos un conjunto de datos diverso de cuádruples imagen-edición-instrucción-intensidad utilizando modelos generativos existentes, seguido de una etapa de filtrado para garantizar calidad y consistencia. Kontinuous Kontext ofrece un enfoque unificado para un control detallado sobre la intensidad de la edición en operaciones diversas como estilización, cambios de atributos, materiales, fondos y formas, sin requerir entrenamiento específico para cada atributo.
English
Instruction-based image editing offers a powerful and intuitive way to manipulate images through natural language. Yet, relying solely on text instructions limits fine-grained control over the extent of edits. We introduce Kontinuous Kontext, an instruction-driven editing model that provides a new dimension of control over edit strength, enabling users to adjust edits gradually from no change to a fully realized result in a smooth and continuous manner. Kontinuous Kontext extends a state-of-the-art image editing model to accept an additional input, a scalar edit strength which is then paired with the edit instruction, enabling explicit control over the extent of the edit. To inject this scalar information, we train a lightweight projector network that maps the input scalar and the edit instruction to coefficients in the model's modulation space. For training our model, we synthesize a diverse dataset of image-edit-instruction-strength quadruplets using existing generative models, followed by a filtering stage to ensure quality and consistency. Kontinuous Kontext provides a unified approach for fine-grained control over edit strength for instruction driven editing from subtle to strong across diverse operations such as stylization, attribute, material, background, and shape changes, without requiring attribute-specific training.
PDF52October 15, 2025