ChatPaper.aiChatPaper

Alterbute: Редактирование внутренних атрибутов объектов на изображениях

Alterbute: Editing Intrinsic Attributes of Objects in Images

January 15, 2026
Авторы: Tal Reiss, Daniel Winter, Matan Cohen, Alex Rav-Acha, Yael Pritch, Ariel Shamir, Yedid Hoshen
cs.AI

Аннотация

Мы представляем Alterbute — диффузионный метод для редактирования внутренних атрибутов объекта на изображении. Наш подход позволяет изменять цвет, текстуру, материал и даже форму объекта, сохраняя его воспринимаемую идентичность и контекст сцены. Существующие методы либо полагаются на неконтролируемые априорные предположения, которые часто не сохраняют идентичность, либо используют излишне жёсткий контроль, препятствующий значимым вариациям внутренних свойств. Наш метод основан на: (i) ослабленной функции обучения, которая позволяет модели изменять как внутренние, так и внешние атрибуты, обусловленные эталонным изображением идентичности, текстовым описанием целевых внутренних атрибутов, а также фоновым изображением и маской объекта, определяющими внешний контекст. На этапе вывода мы ограничиваем внешние изменения, повторно используя исходный фон и маску объекта, тем самым гарантируя изменение только целевых внутренних атрибутов; (ii) Визуальных Именованных Объектах (ВИО) — детализированных категориях визуальной идентичности (например, «Porsche 911 Carrera»), которые группируют объекты, имеющие общие идентифицирующие черты, но допускающие вариативность внутренних атрибутов. Мы используем модель «визуальный язык» для автоматического извлечения меток ВИО и описаний внутренних атрибутов из большого публичного набора изображений, что обеспечивает масштабируемый контроль с сохранением идентичности. Alterbute превосходит существующие методы в задаче редактирования внутренних атрибутов объекта с сохранением идентичности.
English
We introduce Alterbute, a diffusion-based method for editing an object's intrinsic attributes in an image. We allow changing color, texture, material, and even the shape of an object, while preserving its perceived identity and scene context. Existing approaches either rely on unsupervised priors that often fail to preserve identity or use overly restrictive supervision that prevents meaningful intrinsic variations. Our method relies on: (i) a relaxed training objective that allows the model to change both intrinsic and extrinsic attributes conditioned on an identity reference image, a textual prompt describing the target intrinsic attributes, and a background image and object mask defining the extrinsic context. At inference, we restrict extrinsic changes by reusing the original background and object mask, thereby ensuring that only the desired intrinsic attributes are altered; (ii) Visual Named Entities (VNEs) - fine-grained visual identity categories (e.g., ''Porsche 911 Carrera'') that group objects sharing identity-defining features while allowing variation in intrinsic attributes. We use a vision-language model to automatically extract VNE labels and intrinsic attribute descriptions from a large public image dataset, enabling scalable, identity-preserving supervision. Alterbute outperforms existing methods on identity-preserving object intrinsic attribute editing.
PDF181January 17, 2026