ChatPaper.aiChatPaper

Kontinuierlicher Kontext: Kontinuierliche Stärkeregelung für anweisungsbasierte Bildbearbeitung

Kontinuous Kontext: Continuous Strength Control for Instruction-based Image Editing

October 9, 2025
papers.authors: Rishubh Parihar, Or Patashnik, Daniil Ostashev, R. Venkatesh Babu, Daniel Cohen-Or, Kuan-Chieh Wang
cs.AI

papers.abstract

Instruktionsbasierte Bildbearbeitung bietet eine leistungsstarke und intuitive Möglichkeit, Bilder durch natürliche Sprache zu manipulieren. Dennoch beschränkt die alleinige Verwendung von Textanweisungen die feinkörnige Kontrolle über das Ausmaß der Bearbeitungen. Wir stellen Kontinuous Kontext vor, ein instruktionsgesteuertes Bearbeitungsmodell, das eine neue Dimension der Kontrolle über die Bearbeitungsstärke bietet und es Benutzern ermöglicht, Bearbeitungen schrittweise von keiner Veränderung bis hin zu einem vollständig realisierten Ergebnis auf glatte und kontinuierliche Weise anzupassen. Kontinuous Kontext erweitert ein modernes Bildbearbeitungsmodell, um einen zusätzlichen Eingabewert, eine skalare Bearbeitungsstärke, zu akzeptieren, die dann mit der Bearbeitungsanweisung kombiniert wird und eine explizite Kontrolle über das Ausmaß der Bearbeitung ermöglicht. Um diese skalare Information einzubringen, trainieren wir ein leichtgewichtiges Projektionsnetzwerk, das den Eingabewert und die Bearbeitungsanweisung auf Koeffizienten im Modulationsraum des Modells abbildet. Für das Training unseres Modells synthetisieren wir einen vielfältigen Datensatz von Bild-Bearbeitungsanweisungs-Stärke-Vierlingen mithilfe bestehender generativer Modelle, gefolgt von einer Filterungsphase, um Qualität und Konsistenz sicherzustellen. Kontinuous Kontext bietet einen einheitlichen Ansatz für die feinkörnige Kontrolle über die Bearbeitungsstärke bei instruktionsgesteuerter Bearbeitung, von subtil bis stark, über diverse Operationen wie Stilisierung, Attribut-, Material-, Hintergrund- und Formveränderungen hinweg, ohne dass attributspezifisches Training erforderlich ist.
English
Instruction-based image editing offers a powerful and intuitive way to manipulate images through natural language. Yet, relying solely on text instructions limits fine-grained control over the extent of edits. We introduce Kontinuous Kontext, an instruction-driven editing model that provides a new dimension of control over edit strength, enabling users to adjust edits gradually from no change to a fully realized result in a smooth and continuous manner. Kontinuous Kontext extends a state-of-the-art image editing model to accept an additional input, a scalar edit strength which is then paired with the edit instruction, enabling explicit control over the extent of the edit. To inject this scalar information, we train a lightweight projector network that maps the input scalar and the edit instruction to coefficients in the model's modulation space. For training our model, we synthesize a diverse dataset of image-edit-instruction-strength quadruplets using existing generative models, followed by a filtering stage to ensure quality and consistency. Kontinuous Kontext provides a unified approach for fine-grained control over edit strength for instruction driven editing from subtle to strong across diverse operations such as stylization, attribute, material, background, and shape changes, without requiring attribute-specific training.
PDF52October 15, 2025