SpaceControl: 3D生成モデリングへのテスト時空間制御の導入
SpaceControl: Introducing Test-Time Spatial Control to 3D Generative Modeling
December 5, 2025
著者: Elisabetta Fedele, Francis Engelmann, Ian Huang, Or Litany, Marc Pollefeys, Leonidas Guibas
cs.AI
要旨
3Dアセット生成手法は近年目覚ましい進展を遂げているが、オブジェクトの形状を直感的かつ精密に制御することは依然として重要な課題である。既存手法は主にテキストや画像プロンプトに依存しているが、これらは形状の特定性においてしばしば不十分である。言語は曖昧さを伴い、画像は編集が煩雑になりがちだ。本研究では、3D生成を明示的に空間制御するトレーニング不要なテスト時手法「SpaceControl」を提案する。本手法は、粗いプリミティブから詳細なメッシュまで、多様な形状入力を受け入れ、追加のトレーニングを必要とせずに、現代の事前学習済み生成モデルとシームレスに統合する。制御可能なパラメータにより、ユーザーは形状の忠実度と出力のリアリズムのバランスを調整できる。大規模な定量的評価とユーザー調査により、SpaceControlが高い視覚品質を維持しつつ、学習ベースおよび最適化ベースのベースライン手法を形状の忠実性で上回ることを実証した。最後に、スーパークアッドリックを対話的に編集し、テクスチャ付き3Dアセットへ直接変換可能なユーザーインターフェースを提示し、創造的なワークフローへの実用的な導入を促進する。プロジェクトページはhttps://spacecontrol3d.github.io/を参照。
English
Generative methods for 3D assets have recently achieved remarkable progress, yet providing intuitive and precise control over the object geometry remains a key challenge. Existing approaches predominantly rely on text or image prompts, which often fall short in geometric specificity: language can be ambiguous, and images are cumbersome to edit. In this work, we introduce SpaceControl, a training-free test-time method for explicit spatial control of 3D generation. Our approach accepts a wide range of geometric inputs, from coarse primitives to detailed meshes, and integrates seamlessly with modern pre-trained generative models without requiring any additional training. A controllable parameter lets users trade off between geometric fidelity and output realism. Extensive quantitative evaluation and user studies demonstrate that SpaceControl outperforms both training-based and optimization-based baselines in geometric faithfulness while preserving high visual quality. Finally, we present an interactive user interface that enables online editing of superquadrics for direct conversion into textured 3D assets, facilitating practical deployment in creative workflows. Find our project page at https://spacecontrol3d.github.io/