ChatPaper.aiChatPaper

Alterbute: Modifica degli Attributi Intrinseci degli Oggetti nelle Immagini

Alterbute: Editing Intrinsic Attributes of Objects in Images

January 15, 2026
Autori: Tal Reiss, Daniel Winter, Matan Cohen, Alex Rav-Acha, Yael Pritch, Ariel Shamir, Yedid Hoshen
cs.AI

Abstract

Introduciamo Alterbute, un metodo basato sulla diffusione per modificare gli attributi intrinseci di un oggetto in un'immagine. Consentiamo di cambiare colore, texture, materiale e persino la forma di un oggetto, preservandone al contempo l'identità percepita e il contesto della scena. Gli approcci esistenti si basano su principi non supervisionati che spesso non preservano l'identità, oppure utilizzano una supervisione eccessivamente restrittiva che impedisce variazioni intrinseche significative. Il nostro metodo si basa su: (i) un obiettivo di addestramento rilassato che permette al modello di modificare sia gli attributi intrinseci che estrinseci, condizionato da un'immagine di riferimento dell'identità, una richiesta testuale che descrive gli attributi intrinseci target, e un'immagine di sfondo con una maschera dell'oggetto che definisce il contesto estrinseco. Al momento dell'inferenza, limitiamo i cambiamenti estrinseci riutilizzando lo sfondo originale e la maschera dell'oggetto, garantendo così che vengano alterati solo gli attributi intrinseci desiderati; (ii) Entità Nominate Visive (VNE) - categorie di identità visiva granulari (ad esempio, "Porsche 911 Carrera") che raggruppano oggetti che condividono caratteristiche che definiscono l'identità, pur consentendo variazioni negli attributi intrinseci. Utilizziamo un modello visione-linguaggio per estrarre automaticamente etichette VNE e descrizioni degli attributi intrinseci da un ampio dataset di immagini pubbliche, abilitando una supervisione scalabile e preservante l'identità. Alterbute supera i metodi esistenti nella modifica degli attributi intrinseci di oggetti con preservazione dell'identità.
English
We introduce Alterbute, a diffusion-based method for editing an object's intrinsic attributes in an image. We allow changing color, texture, material, and even the shape of an object, while preserving its perceived identity and scene context. Existing approaches either rely on unsupervised priors that often fail to preserve identity or use overly restrictive supervision that prevents meaningful intrinsic variations. Our method relies on: (i) a relaxed training objective that allows the model to change both intrinsic and extrinsic attributes conditioned on an identity reference image, a textual prompt describing the target intrinsic attributes, and a background image and object mask defining the extrinsic context. At inference, we restrict extrinsic changes by reusing the original background and object mask, thereby ensuring that only the desired intrinsic attributes are altered; (ii) Visual Named Entities (VNEs) - fine-grained visual identity categories (e.g., ''Porsche 911 Carrera'') that group objects sharing identity-defining features while allowing variation in intrinsic attributes. We use a vision-language model to automatically extract VNE labels and intrinsic attribute descriptions from a large public image dataset, enabling scalable, identity-preserving supervision. Alterbute outperforms existing methods on identity-preserving object intrinsic attribute editing.
PDF303February 8, 2026