ChatPaper.aiChatPaper

Alterbute: Editando Atributos Intrínsecos de Objetos em Imagens

Alterbute: Editing Intrinsic Attributes of Objects in Images

January 15, 2026
Autores: Tal Reiss, Daniel Winter, Matan Cohen, Alex Rav-Acha, Yael Pritch, Ariel Shamir, Yedid Hoshen
cs.AI

Resumo

Apresentamos o Alterbute, um método baseado em difusão para editar os atributos intrínsecos de um objeto em uma imagem. Permitimos alterar a cor, a textura, o material e até mesmo a forma de um objeto, preservando sua identidade percebida e o contexto da cena. As abordagens existentes dependem de *priors* não supervisionados que frequentemente falham em preservar a identidade ou usam supervisão excessivamente restritiva que impede variações intrínsecas significativas. Nosso método baseia-se em: (i) um objetivo de treinamento relaxado que permite ao modelo alterar tanto atributos intrínsecos quanto extrínsecos condicionado a uma imagem de referência de identidade, um *prompt* textual que descreve os atributos intrínsecos alvo, e uma imagem de fundo e uma máscara de objeto que definem o contexto extrínseco. Na inferência, restringimos as alterações extrínsecas reutilizando o fundo original e a máscara do objeto, garantindo assim que apenas os atributos intrínsecos desejados sejam alterados; (ii) Entidades Nomeadas Visuais (VNEs) - categorias de identidade visual de granularidade fina (por exemplo, "Porsche 911 Carrera") que agrupam objetos que compartilham características definidoras de identidade, permitindo variação nos atributos intrínsecos. Utilizamos um modelo de visão e linguagem para extrair automaticamente rótulos de VNE e descrições de atributos intrínsecos de um grande conjunto de dados de imagens públicas, permitindo uma supervisão escalável e preservadora de identidade. O Alterbute supera os métodos existentes na edição de atributos intrínsecos de objetos com preservação de identidade.
English
We introduce Alterbute, a diffusion-based method for editing an object's intrinsic attributes in an image. We allow changing color, texture, material, and even the shape of an object, while preserving its perceived identity and scene context. Existing approaches either rely on unsupervised priors that often fail to preserve identity or use overly restrictive supervision that prevents meaningful intrinsic variations. Our method relies on: (i) a relaxed training objective that allows the model to change both intrinsic and extrinsic attributes conditioned on an identity reference image, a textual prompt describing the target intrinsic attributes, and a background image and object mask defining the extrinsic context. At inference, we restrict extrinsic changes by reusing the original background and object mask, thereby ensuring that only the desired intrinsic attributes are altered; (ii) Visual Named Entities (VNEs) - fine-grained visual identity categories (e.g., ''Porsche 911 Carrera'') that group objects sharing identity-defining features while allowing variation in intrinsic attributes. We use a vision-language model to automatically extract VNE labels and intrinsic attribute descriptions from a large public image dataset, enabling scalable, identity-preserving supervision. Alterbute outperforms existing methods on identity-preserving object intrinsic attribute editing.
PDF303February 8, 2026