ChatPaper.aiChatPaper

Trainingsfreie farbliche Bearbeitung mit textgesteuertem Multi-Modal-Diffusion-Transformer

Training-Free Text-Guided Color Editing with Multi-Modal Diffusion Transformer

August 12, 2025
papers.authors: Zixin Yin, Xili Dai, Ling-Hao Chen, Deyu Zhou, Jianan Wang, Duomin Wang, Gang Yu, Lionel M. Ni, Lei Zhang, Heung-Yeung Shum
cs.AI

papers.abstract

Textgesteuerte Farbbearbeitung in Bildern und Videos ist ein grundlegendes, aber noch ungelöstes Problem, das eine fein abgestimmte Manipulation von Farbattributen wie Albedo, Lichtquellenfarbe und Umgebungsbeleuchtung erfordert, während die physikalische Konsistenz in Bezug auf Geometrie, Materialeigenschaften und Licht-Materie-Interaktionen erhalten bleibt. Bestehende trainingsfreie Methoden bieten zwar breite Anwendbarkeit für verschiedene Bearbeitungsaufgaben, haben jedoch Schwierigkeiten bei der präzisen Farbkontrolle und führen oft zu visuellen Inkonsistenzen in bearbeiteten sowie nicht bearbeiteten Bereichen. In dieser Arbeit präsentieren wir ColorCtrl, eine trainingsfreie Farbbearbeitungsmethode, die die Aufmerksamkeitsmechanismen moderner Multi-Modaler Diffusionstransformatoren (MM-DiT) nutzt. Durch die Entflechtung von Struktur und Farbe mittels gezielter Manipulation von Aufmerksamkeitskarten und Wert-Tokens ermöglicht unsere Methode eine präzise und konsistente Farbbearbeitung sowie eine wortgenaue Kontrolle der Attributintensität. Unsere Methode modifiziert ausschließlich die durch den Prompt spezifizierten Bereiche und lässt unverwandte Regionen unberührt. Umfangreiche Experimente mit SD3 und FLUX.1-dev zeigen, dass ColorCtrl bestehende trainingsfreie Ansätze übertrifft und Spitzenleistungen in Bezug auf Bearbeitungsqualität und Konsistenz erreicht. Darüber hinaus übertrifft unsere Methode starke kommerzielle Modelle wie FLUX.1 Kontext Max und GPT-4o Image Generation in puncto Konsistenz. Bei der Anwendung auf Videomodelle wie CogVideoX zeigt unser Ansatz größere Vorteile, insbesondere bei der Wahrung der zeitlichen Kohärenz und Bearbeitungsstabilität. Schließlich verallgemeinert sich unsere Methode auch auf instruktionsbasierte Bearbeitungsdiffusionsmodelle wie Step1X-Edit und FLUX.1 Kontext dev, was ihre Vielseitigkeit weiter unterstreicht.
English
Text-guided color editing in images and videos is a fundamental yet unsolved problem, requiring fine-grained manipulation of color attributes, including albedo, light source color, and ambient lighting, while preserving physical consistency in geometry, material properties, and light-matter interactions. Existing training-free methods offer broad applicability across editing tasks but struggle with precise color control and often introduce visual inconsistency in both edited and non-edited regions. In this work, we present ColorCtrl, a training-free color editing method that leverages the attention mechanisms of modern Multi-Modal Diffusion Transformers (MM-DiT). By disentangling structure and color through targeted manipulation of attention maps and value tokens, our method enables accurate and consistent color editing, along with word-level control of attribute intensity. Our method modifies only the intended regions specified by the prompt, leaving unrelated areas untouched. Extensive experiments on both SD3 and FLUX.1-dev demonstrate that ColorCtrl outperforms existing training-free approaches and achieves state-of-the-art performances in both edit quality and consistency. Furthermore, our method surpasses strong commercial models such as FLUX.1 Kontext Max and GPT-4o Image Generation in terms of consistency. When extended to video models like CogVideoX, our approach exhibits greater advantages, particularly in maintaining temporal coherence and editing stability. Finally, our method also generalizes to instruction-based editing diffusion models such as Step1X-Edit and FLUX.1 Kontext dev, further demonstrating its versatility.
PDF91August 20, 2025