ChatPaper.aiChatPaper

マトリョーシカガウススプラッティング

Matryoshka Gaussian Splatting

March 19, 2026
著者: Zhilin Guo, Boqiao Zhang, Hakan Aktas, Kyle Fogarty, Jeffrey Hu, Nursena Koprucu Aslan, Wenzhao Li, Canberk Baykal, Albert Miao, Josef Bengtson, Chenliang Zhou, Weihao Xia, Cristina Nader Vasconcelos. Cengiz Oztireli
cs.AI

要旨

マトリョーシカガウススプラッティング(MGS):単一モデルによる連続的詳細度制御の実現 単一モデルから調整可能な忠実度でシーンをレンダリングする能力、すなわち詳細度(LoD)は、3Dガウススプラッティング(3DGS)の実用的な展開において極めて重要である。既存の離散的LoD手法が提供する操作点は限定的である一方、近年の連続的LoD手法はより滑らかなスケーリングを可能にするものの、最大能力時の品質劣化が顕著であり、LoDの導入がコストの高い設計判断となっている。本論文では、標準的な3DGSパイプラインにおいて、最大能力時のレンダリング品質を損なうことなく連続的LoDを実現する学習フレームワーク、Matryoshka Gaussian Splatting(MGS)を提案する。MGSは単一の順序付けられたガウス集合を学習し、任意の接頭辞(最初のk個のスプラット)をレンダリングすることで、予算の増加に伴い忠実度が滑らかに向上する一貫性のある再構成を生成する。中核となるアイデアは確率的予算学習である:各イテレーションでランダムなスプラット予算をサンプリングし、対応する接頭辞と集合全体の両方を最適化する。この戦略は2回の順伝搬のみを必要とし、アーキテクチャの変更を一切伴わない。4つのベンチマークと6つのベースラインを用いた実験により、MGSがバックボーン手法の最大能力時の性能を維持しつつ、単一モデルから連続的な速度と品質のトレードオフを実現することを示す。順序付け戦略、学習目的関数、モデル容量に関する詳細なアブレーション研究により、設計の有効性をさらに検証する。
English
The ability to render scenes at adjustable fidelity from a single model, known as level of detail (LoD), is crucial for practical deployment of 3D Gaussian Splatting (3DGS). Existing discrete LoD methods expose only a limited set of operating points, while concurrent continuous LoD approaches enable smoother scaling but often suffer noticeable quality degradation at full capacity, making LoD a costly design decision. We introduce Matryoshka Gaussian Splatting (MGS), a training framework that enables continuous LoD for standard 3DGS pipelines without sacrificing full-capacity rendering quality. MGS learns a single ordered set of Gaussians such that rendering any prefix, the first k splats, produces a coherent reconstruction whose fidelity improves smoothly with increasing budget. Our key idea is stochastic budget training: each iteration samples a random splat budget and optimises both the corresponding prefix and the full set. This strategy requires only two forward passes and introduces no architectural modifications. Experiments across four benchmarks and six baselines show that MGS matches the full-capacity performance of its backbone while enabling a continuous speed-quality trade-off from a single model. Extensive ablations on ordering strategies, training objectives, and model capacity further validate the designs.
PDF10March 21, 2026