ChatPaper.aiChatPaper

Alterbute : Modification des attributs intrinsèques des objets dans les images

Alterbute: Editing Intrinsic Attributes of Objects in Images

January 15, 2026
papers.authors: Tal Reiss, Daniel Winter, Matan Cohen, Alex Rav-Acha, Yael Pritch, Ariel Shamir, Yedid Hoshen
cs.AI

papers.abstract

Nous présentons Alterbute, une méthode fondée sur la diffusion pour modifier les attributs intrinsèques d'un objet dans une image. Notre méthode permet de changer la couleur, la texture, le matériau, et même la forme d'un objet, tout en préservant son identité perçue et le contexte de la scène. Les approches existantes reposent soit sur des prérequis non supervisés qui échouent souvent à préserver l'identité, soit sur une supervision excessivement restrictive qui empêche des variations intrinsèques significatives. Notre méthode s'appuie sur : (i) un objectif d'apprentissage assoupli qui permet au modèle de modifier à la fois les attributs intrinsèques et extrinsèques, conditionné par une image de référence d'identité, une invite textuelle décrivant les attributs intrinsèques cibles, ainsi qu'une image d'arrière-plan et un masque objet définissant le contexte extrinsèque. Lors de l'inférence, nous restreignons les changements extrinsèques en réutilisant l'arrière-plan et le masque objet originaux, garantissant ainsi que seuls les attributs intrinsèques souhaités sont modifiés ; (ii) les Entités Nommées Visuelles (VNEs) - des catégories d'identité visuelle à granularité fine (par exemple, « Porsche 911 Carrera ») qui regroupent des objets partageant des caractéristiques définissant l'identité tout en autorisant des variations dans leurs attributs intrinsèques. Nous utilisons un modèle vision-langage pour extraire automatiquement les labels VNE et les descriptions d'attributs intrinsèques d'un vaste jeu de données d'images publiques, permettant ainsi une supervision évolutive et préservant l'identité. Alterbute surpasse les méthodes existantes en matière d'édition d'attributs intrinsèques d'objets préservant l'identité.
English
We introduce Alterbute, a diffusion-based method for editing an object's intrinsic attributes in an image. We allow changing color, texture, material, and even the shape of an object, while preserving its perceived identity and scene context. Existing approaches either rely on unsupervised priors that often fail to preserve identity or use overly restrictive supervision that prevents meaningful intrinsic variations. Our method relies on: (i) a relaxed training objective that allows the model to change both intrinsic and extrinsic attributes conditioned on an identity reference image, a textual prompt describing the target intrinsic attributes, and a background image and object mask defining the extrinsic context. At inference, we restrict extrinsic changes by reusing the original background and object mask, thereby ensuring that only the desired intrinsic attributes are altered; (ii) Visual Named Entities (VNEs) - fine-grained visual identity categories (e.g., ''Porsche 911 Carrera'') that group objects sharing identity-defining features while allowing variation in intrinsic attributes. We use a vision-language model to automatically extract VNE labels and intrinsic attribute descriptions from a large public image dataset, enabling scalable, identity-preserving supervision. Alterbute outperforms existing methods on identity-preserving object intrinsic attribute editing.
PDF181January 17, 2026