SAEdit: Token-niveau controle voor continue beeldbewerking via Sparse AutoEncoder
SAEdit: Token-level control for continuous image editing via Sparse AutoEncoder
October 6, 2025
Auteurs: Ronen Kamenetsky, Sara Dorfman, Daniel Garibi, Roni Paiss, Or Patashnik, Daniel Cohen-Or
cs.AI
Samenvatting
Grootschalige tekst-naar-beeld diffusiemodellen vormen de ruggengraat van moderne beeldbewerking, maar tekstprompts alleen bieden onvoldoende controle over het bewerkingsproces. Twee eigenschappen zijn vooral wenselijk: ontvlechting, waarbij het veranderen van één attribuut niet onbedoeld andere attributen wijzigt, en continue controle, waarbij de sterkte van een bewerking soepel kan worden aangepast. Wij introduceren een methode voor ontvlochten en continue bewerking door middel van token-level manipulatie van tekstembeddings. De bewerkingen worden toegepast door de embeddings te manipuleren langs zorgvuldig gekozen richtingen, die de sterkte van het doelattribuut beheersen. Om dergelijke richtingen te identificeren, gebruiken we een Sparse Autoencoder (SAE), waarvan de spaarzame latente ruimte semantisch geïsoleerde dimensies blootlegt. Onze methode werkt direct op tekstembeddings zonder het diffusieproces te wijzigen, waardoor het modelagnostisch is en breed toepasbaar op verschillende beeld-synthesebackbones. Experimenten tonen aan dat het intuïtieve en efficiënte manipulaties mogelijk maakt met continue controle over diverse attributen en domeinen.
English
Large-scale text-to-image diffusion models have become the backbone of modern
image editing, yet text prompts alone do not offer adequate control over the
editing process. Two properties are especially desirable: disentanglement,
where changing one attribute does not unintentionally alter others, and
continuous control, where the strength of an edit can be smoothly adjusted. We
introduce a method for disentangled and continuous editing through token-level
manipulation of text embeddings. The edits are applied by manipulating the
embeddings along carefully chosen directions, which control the strength of the
target attribute. To identify such directions, we employ a Sparse Autoencoder
(SAE), whose sparse latent space exposes semantically isolated dimensions. Our
method operates directly on text embeddings without modifying the diffusion
process, making it model agnostic and broadly applicable to various image
synthesis backbones. Experiments show that it enables intuitive and efficient
manipulations with continuous control across diverse attributes and domains.