ChatPaper.aiChatPaper

SAEdit: Token-basierte Steuerung für kontinuierliche Bildbearbeitung mittels Sparse AutoEncoder

SAEdit: Token-level control for continuous image editing via Sparse AutoEncoder

October 6, 2025
papers.authors: Ronen Kamenetsky, Sara Dorfman, Daniel Garibi, Roni Paiss, Or Patashnik, Daniel Cohen-Or
cs.AI

papers.abstract

Großskalige Text-zu-Bild-Diffusionsmodelle bilden das Rückgrat der modernen Bildbearbeitung, doch bieten Textanweisungen allein keine ausreichende Kontrolle über den Bearbeitungsprozess. Zwei Eigenschaften sind besonders wünschenswert: Entflechtung, bei der die Änderung eines Attributs nicht unbeabsichtigt andere Attribute verändert, und kontinuierliche Steuerung, bei der die Stärke einer Bearbeitung sanft angepasst werden kann. Wir stellen eine Methode zur entflochtenen und kontinuierlichen Bearbeitung durch Token-Level-Manipulation von Text-Einbettungen vor. Die Bearbeitungen werden durch Manipulation der Einbettungen entlang sorgfältig ausgewählter Richtungen vorgenommen, welche die Stärke des Zielattributs steuern. Um solche Richtungen zu identifizieren, verwenden wir einen Sparse Autoencoder (SAE), dessen spärlicher latenter Raum semantisch isolierte Dimensionen offenlegt. Unsere Methode arbeitet direkt auf Text-Einbettungen, ohne den Diffusionsprozess zu modifizieren, wodurch sie modellagnostisch ist und breit auf verschiedene Bildsynthese-Backbones anwendbar ist. Experimente zeigen, dass sie intuitive und effiziente Manipulationen mit kontinuierlicher Steuerung über diverse Attribute und Domänen hinweg ermöglicht.
English
Large-scale text-to-image diffusion models have become the backbone of modern image editing, yet text prompts alone do not offer adequate control over the editing process. Two properties are especially desirable: disentanglement, where changing one attribute does not unintentionally alter others, and continuous control, where the strength of an edit can be smoothly adjusted. We introduce a method for disentangled and continuous editing through token-level manipulation of text embeddings. The edits are applied by manipulating the embeddings along carefully chosen directions, which control the strength of the target attribute. To identify such directions, we employ a Sparse Autoencoder (SAE), whose sparse latent space exposes semantically isolated dimensions. Our method operates directly on text embeddings without modifying the diffusion process, making it model agnostic and broadly applicable to various image synthesis backbones. Experiments show that it enables intuitive and efficient manipulations with continuous control across diverse attributes and domains.
PDF32October 7, 2025