**Omni-Attribute: 시각 개념 개인화를 위한 오픈-보커뷸러리 속성 인코더**
Omni-Attribute: Open-vocabulary Attribute Encoder for Visual Concept Personalization
December 11, 2025
저자: Tsai-Shien Chen, Aliaksandr Siarohin, Guocheng Gordon Qian, Kuan-Chieh Jackson Wang, Egor Nemchinov, Moayed Haji-Ali, Riza Alp Guler, Willi Menapace, Ivan Skorokhodov, Anil Kag, Jun-Yan Zhu, Sergey Tulyakov
cs.AI
초록
시각 개념 개인화는 신원, 표정, 조명, 스타일 등과 같은 특정 이미지 속성만을 새로운 상황으로 전달하는 것을 목표로 합니다. 그러나 기존 방법들은 여러 시각적 요소가 얽혀 단일 속성을 분리하기 어려운 범용 이미지 인코더의 전체적 임베딩에 의존합니다. 이로 인해 정보 누출과 비일관적인 합성이 자주 발생합니다. 이러한 한계를 해결하기 위해 우리는 높은 충실도의 속성별 표현을 학습하도록 설계된 최초의 개방형 어휘 이미지 속성 인코더인 Omni-Attribute를 소개합니다. 우리의 접근 방식은 데이터와 모델을 함께 설계합니다: (i) 보존하거나 억제해야 할 대상을 인코더에 명시적으로 가르치기 위해 긍정 및 부정 속성으로 주석이 달린 의미론적으로 연결된 이미지 쌍을 정제하고, (ii) 생성적 충실도와 대조적 분리를 균형 있게 조절하는 이중 목표 훈련 패러다임을 채택합니다. 그 결과 생성된 임베딩은 개방형 어휘 속성 검색, 개인화 및 조합 생성에 효과적인 것으로 입증되었으며, 여러 벤치마크에서 최첨단 성능을 달성합니다.
English
Visual concept personalization aims to transfer only specific image attributes, such as identity, expression, lighting, and style, into unseen contexts. However, existing methods rely on holistic embeddings from general-purpose image encoders, which entangle multiple visual factors and make it difficult to isolate a single attribute. This often leads to information leakage and incoherent synthesis. To address this limitation, we introduce Omni-Attribute, the first open-vocabulary image attribute encoder designed to learn high-fidelity, attribute-specific representations. Our approach jointly designs the data and model: (i) we curate semantically linked image pairs annotated with positive and negative attributes to explicitly teach the encoder what to preserve or suppress; and (ii) we adopt a dual-objective training paradigm that balances generative fidelity with contrastive disentanglement. The resulting embeddings prove effective for open-vocabulary attribute retrieval, personalization, and compositional generation, achieving state-of-the-art performance across multiple benchmarks.