Interp3D: 生成的テクスチャ付き3Dモーフィングのための対応関係認識補間
Interp3D: Correspondence-aware Interpolation for Generative Textured 3D Morphing
January 20, 2026
著者: Xiaolu Liu, Yicong Li, Qiyuan He, Jiayin Zhu, Wei Ji, Angela Yao, Jianke Zhu
cs.AI
要旨
テクスチャ付き3Dモーフィングは、2つの3Dアセット間の滑らかで自然な遷移を生成し、構造的一貫性と微細な外観の両方を維持することを目的としています。この能力は、3D生成研究を推進するだけでなく、アニメーション、編集、デジタルコンテンツ制作における実用的な応用においても極めて重要です。既存の手法は、幾何学的形状を直接操作して形状のみのモーフィングに限定されテクスチャを無視するものか、あるいは2D補間戦略を3Dに拡張するものですが、後者は意味的な曖昧さ、構造の不整合、テクスチャのぼやけを引き起こしがちです。これらの課題は、遷移プロセス全体を通じて幾何学的一貫性、テクスチャの整合性、およびロバスト性を共同で維持する必要性を浮き彫りにしています。
これを解決するため、我々はテクスチャ付き3Dモーフィングのための新しいトレーニング不要フレームワークであるInterp3Dを提案します。Interp3Dは生成的プリオールを活用し、漸進的整合原理を採用することで、幾何学的忠実度とテクスチャの一貫性の両方を保証します。条件空間における意味的に整合した補間から始まり、Interp3DはSLAT(Structured Latent)誘導構造補間を介して構造的一貫性を強化し、最終的に微細なテクスチャ融合を通じて外観の詳細を転送します。
包括的評価のために、難易度を段階化した専用データセットInterp3DDataを構築し、忠実度、遷移の滑らかさ、自然さの観点から生成結果を評価しました。定量的指標と人間による評価の両方が、提案手法が従来法に対して有意な優位性を持つことを示しています。ソースコードはhttps://github.com/xiaolul2/Interp3D で公開されています。
English
Textured 3D morphing seeks to generate smooth and plausible transitions between two 3D assets, preserving both structural coherence and fine-grained appearance. This ability is crucial not only for advancing 3D generation research but also for practical applications in animation, editing, and digital content creation. Existing approaches either operate directly on geometry, limiting them to shape-only morphing while neglecting textures, or extend 2D interpolation strategies into 3D, which often causes semantic ambiguity, structural misalignment, and texture blurring. These challenges underscore the necessity to jointly preserve geometric consistency, texture alignment, and robustness throughout the transition process. To address this, we propose Interp3D, a novel training-free framework for textured 3D morphing. It harnesses generative priors and adopts a progressive alignment principle to ensure both geometric fidelity and texture coherence. Starting from semantically aligned interpolation in condition space, Interp3D enforces structural consistency via SLAT (Structured Latent)-guided structure interpolation, and finally transfers appearance details through fine-grained texture fusion. For comprehensive evaluations, we construct a dedicated dataset, Interp3DData, with graded difficulty levels and assess generation results from fidelity, transition smoothness, and plausibility. Both quantitative metrics and human studies demonstrate the significant advantages of our proposed approach over previous methods. Source code is available at https://github.com/xiaolul2/Interp3D.