ChatPaper.aiChatPaper

Alterbute: Bearbeitung intrinsischer Attribute von Objekten in Bildern

Alterbute: Editing Intrinsic Attributes of Objects in Images

January 15, 2026
papers.authors: Tal Reiss, Daniel Winter, Matan Cohen, Alex Rav-Acha, Yael Pritch, Ariel Shamir, Yedid Hoshen
cs.AI

papers.abstract

Wir stellen Alterbute vor, eine diffusionsbasierte Methode zur Bearbeitung der intrinsischen Attribute eines Objekts in einem Bild. Wir ermöglichen die Änderung von Farbe, Textur, Material und sogar der Form eines Objekts, während dessen wahrgenommene Identität und der Szenenkontext erhalten bleiben. Bestehende Ansätze verlassen sich entweder auf unüberwachte Priori-Informationen, die oft die Identität nicht bewahren können, oder verwenden eine zu restriktive Überwachung, die bedeutungsvolle intrinsische Variationen verhindert. Unsere Methode basiert auf: (i) einem relaxierten Trainingsziel, das es dem Modell erlaubt, sowohl intrinsische als auch extrinsische Attribute zu verändern, bedingt durch ein Identitätsreferenzbild, eine textuelle Beschreibung der Ziel-Attribute sowie ein Hintergrundbild und eine Objektmaske, die den extrinsischen Kontext definieren. Zur Inferenzzeit schränken wir extrinsische Änderungen ein, indem wir den ursprünglichen Hintergrund und die Objektmaske wiederverwenden, wodurch sichergestellt wird, dass nur die gewünschten intrinsischen Attribute verändert werden; (ii) Visuellen Benannten Entitäten (VNEs) – feinkörnigen visuellen Identitätskategorien (z.B. „Porsche 911 Carrera“), die Objekte gruppieren, die identitätsdefinierende Merkmale teilen, während Variationen in den intrinsischen Attributen zugelassen werden. Wir verwenden ein Vision-Language-Modell, um automatisch VNE-Labels und Beschreibungen intrinsischer Attribute aus einem großen öffentlichen Bilddatensatz zu extrahieren, was eine skalierbare, identitätserhaltende Überwachung ermöglicht. Alterbute übertrifft bestehende Methoden bei der identitätserhaltenden Bearbeitung intrinsischer Objektattribute.
English
We introduce Alterbute, a diffusion-based method for editing an object's intrinsic attributes in an image. We allow changing color, texture, material, and even the shape of an object, while preserving its perceived identity and scene context. Existing approaches either rely on unsupervised priors that often fail to preserve identity or use overly restrictive supervision that prevents meaningful intrinsic variations. Our method relies on: (i) a relaxed training objective that allows the model to change both intrinsic and extrinsic attributes conditioned on an identity reference image, a textual prompt describing the target intrinsic attributes, and a background image and object mask defining the extrinsic context. At inference, we restrict extrinsic changes by reusing the original background and object mask, thereby ensuring that only the desired intrinsic attributes are altered; (ii) Visual Named Entities (VNEs) - fine-grained visual identity categories (e.g., ''Porsche 911 Carrera'') that group objects sharing identity-defining features while allowing variation in intrinsic attributes. We use a vision-language model to automatically extract VNE labels and intrinsic attribute descriptions from a large public image dataset, enabling scalable, identity-preserving supervision. Alterbute outperforms existing methods on identity-preserving object intrinsic attribute editing.
PDF181January 17, 2026