ChatPaper.aiChatPaper

MorphAny3D: 구조화된 잠재 공간의 힘을 3D 모핑에 적용하다

MorphAny3D: Unleashing the Power of Structured Latent in 3D Morphing

January 1, 2026
저자: Xiaokun Sun, Zeyu Cai, Hao Tang, Ying Tai, Jian Yang, Zhenyu Zhang
cs.AI

초록

3D 모핑은 특히 범주 간 변형에서 의미론적으로 일관되고 시간적으로 부드러운 변형을 생성하는 어려움으로 인해 여전히 과제로 남아 있습니다. 본 논문에서는 고품질 3D 모핑을 위해 구조화된 잠재 표현(SLAT)을 활용하는 학습 불필요 프레임워크인 MorphAny3D를 제안합니다. 우리의 핵심 통찰은 3D 생성기의 어텐션 메커니즘 내에서 소스와 타겟 SLAT 특징을 지능적으로 혼합하면 자연스러운 모핑 시퀀스가 생성된다는 것입니다. 이를 위해 구조적 일관성을 위해 소스와 타겟 정보를 융합하는 Morphing Cross-Attention(MCA)과 이전 프레임의 특징을 통합하여 시간적 일관성을 향상시키는 Temporal-Fused Self-Attention(TFSA)을 도입했습니다. 또한 방향 보정 전략을 통해 모핑 단계 내 포즈 모호성을 추가적으로 완화합니다. 폭넓은 실험을 통해 본 방법이 까다로운 범주 간 변형 사례에서도 최첨단 모핑 시퀀스를 생성함을 입증했습니다. MorphAny3D는 분리 모핑 및 3D 스타일 변환과 같은 고급 응용을 추가로 지원하며, 다른 SLAT 기반 생성 모델로도 일반화 가능합니다. 프로젝트 페이지: https://xiaokunsun.github.io/MorphAny3D.github.io/.
English
3D morphing remains challenging due to the difficulty of generating semantically consistent and temporally smooth deformations, especially across categories. We present MorphAny3D, a training-free framework that leverages Structured Latent (SLAT) representations for high-quality 3D morphing. Our key insight is that intelligently blending source and target SLAT features within the attention mechanisms of 3D generators naturally produces plausible morphing sequences. To this end, we introduce Morphing Cross-Attention (MCA), which fuses source and target information for structural coherence, and Temporal-Fused Self-Attention (TFSA), which enhances temporal consistency by incorporating features from preceding frames. An orientation correction strategy further mitigates the pose ambiguity within the morphing steps. Extensive experiments show that our method generates state-of-the-art morphing sequences, even for challenging cross-category cases. MorphAny3D further supports advanced applications such as decoupled morphing and 3D style transfer, and can be generalized to other SLAT-based generative models. Project page: https://xiaokunsun.github.io/MorphAny3D.github.io/.
PDF11January 6, 2026