ChatPaper.aiChatPaper

Kontinuous Kontext: Controllo Continuo della Forza per la Modifica delle Immagini basata su Istruzioni

Kontinuous Kontext: Continuous Strength Control for Instruction-based Image Editing

October 9, 2025
Autori: Rishubh Parihar, Or Patashnik, Daniil Ostashev, R. Venkatesh Babu, Daniel Cohen-Or, Kuan-Chieh Wang
cs.AI

Abstract

La modifica delle immagini basata su istruzioni offre un modo potente e intuitivo di manipolare le immagini attraverso il linguaggio naturale. Tuttavia, affidarsi esclusivamente alle istruzioni testuali limita il controllo fine-grana sull'entità delle modifiche. Introduciamo Kontinuous Kontext, un modello di modifica guidato da istruzioni che fornisce una nuova dimensione di controllo sulla forza della modifica, consentendo agli utenti di regolare gradualmente le modifiche da nessun cambiamento a un risultato completamente realizzato in modo fluido e continuo. Kontinuous Kontext estende un modello all'avanguardia di modifica delle immagini per accettare un input aggiuntivo, una forza di modifica scalare che viene poi abbinata all'istruzione di modifica, consentendo un controllo esplicito sull'entità della modifica. Per iniettare questa informazione scalare, addestriamo una rete proiettore leggera che mappa lo scalare di input e l'istruzione di modifica a coefficienti nello spazio di modulazione del modello. Per l'addestramento del nostro modello, sintetizziamo un dataset diversificato di quadruplette immagine-istruzione-modifica-forza utilizzando modelli generativi esistenti, seguito da una fase di filtraggio per garantire qualità e coerenza. Kontinuous Kontext fornisce un approccio unificato per il controllo fine-grana sulla forza della modifica per la modifica guidata da istruzioni, da sottile a forte, attraverso operazioni diverse come stilizzazione, attributi, materiali, sfondi e cambiamenti di forma, senza richiedere un addestramento specifico per attributi.
English
Instruction-based image editing offers a powerful and intuitive way to manipulate images through natural language. Yet, relying solely on text instructions limits fine-grained control over the extent of edits. We introduce Kontinuous Kontext, an instruction-driven editing model that provides a new dimension of control over edit strength, enabling users to adjust edits gradually from no change to a fully realized result in a smooth and continuous manner. Kontinuous Kontext extends a state-of-the-art image editing model to accept an additional input, a scalar edit strength which is then paired with the edit instruction, enabling explicit control over the extent of the edit. To inject this scalar information, we train a lightweight projector network that maps the input scalar and the edit instruction to coefficients in the model's modulation space. For training our model, we synthesize a diverse dataset of image-edit-instruction-strength quadruplets using existing generative models, followed by a filtering stage to ensure quality and consistency. Kontinuous Kontext provides a unified approach for fine-grained control over edit strength for instruction driven editing from subtle to strong across diverse operations such as stylization, attribute, material, background, and shape changes, without requiring attribute-specific training.
PDF52October 15, 2025