SAEdit: Token-basierte Steuerung für kontinuierliche Bildbearbeitung mittels Sparse AutoEncoder
SAEdit: Token-level control for continuous image editing via Sparse AutoEncoder
October 6, 2025
papers.authors: Ronen Kamenetsky, Sara Dorfman, Daniel Garibi, Roni Paiss, Or Patashnik, Daniel Cohen-Or
cs.AI
papers.abstract
Großskalige Text-zu-Bild-Diffusionsmodelle bilden das Rückgrat der modernen Bildbearbeitung, doch bieten Textanweisungen allein keine ausreichende Kontrolle über den Bearbeitungsprozess. Zwei Eigenschaften sind besonders wünschenswert: Entflechtung, bei der die Änderung eines Attributs nicht unbeabsichtigt andere Attribute verändert, und kontinuierliche Steuerung, bei der die Stärke einer Bearbeitung sanft angepasst werden kann. Wir stellen eine Methode zur entflochtenen und kontinuierlichen Bearbeitung durch Token-Level-Manipulation von Text-Einbettungen vor. Die Bearbeitungen werden durch Manipulation der Einbettungen entlang sorgfältig ausgewählter Richtungen vorgenommen, welche die Stärke des Zielattributs steuern. Um solche Richtungen zu identifizieren, verwenden wir einen Sparse Autoencoder (SAE), dessen spärlicher latenter Raum semantisch isolierte Dimensionen offenlegt. Unsere Methode arbeitet direkt auf Text-Einbettungen, ohne den Diffusionsprozess zu modifizieren, wodurch sie modellagnostisch ist und breit auf verschiedene Bildsynthese-Backbones anwendbar ist. Experimente zeigen, dass sie intuitive und effiziente Manipulationen mit kontinuierlicher Steuerung über diverse Attribute und Domänen hinweg ermöglicht.
English
Large-scale text-to-image diffusion models have become the backbone of modern
image editing, yet text prompts alone do not offer adequate control over the
editing process. Two properties are especially desirable: disentanglement,
where changing one attribute does not unintentionally alter others, and
continuous control, where the strength of an edit can be smoothly adjusted. We
introduce a method for disentangled and continuous editing through token-level
manipulation of text embeddings. The edits are applied by manipulating the
embeddings along carefully chosen directions, which control the strength of the
target attribute. To identify such directions, we employ a Sparse Autoencoder
(SAE), whose sparse latent space exposes semantically isolated dimensions. Our
method operates directly on text embeddings without modifying the diffusion
process, making it model agnostic and broadly applicable to various image
synthesis backbones. Experiments show that it enables intuitive and efficient
manipulations with continuous control across diverse attributes and domains.