PLANNING: Een Los Gekoppeld Driehoek-Gaussiaans Raamwerk voor Streaming 3D-reconstructie
PLANING: A Loosely Coupled Triangle-Gaussian Framework for Streaming 3D Reconstruction
January 29, 2026
Auteurs: Changjian Jiang, Kerui Ren, Xudong Li, Kaiwen Song, Linning Xu, Tao Lu, Junting Dong, Yu Zhang, Bo Dai, Mulin Yu
cs.AI
Samenvatting
Streamingreconstructie uit monokulaire beeldsequenties blijft een uitdaging, omdat bestaande methodes doorgaans ofwel hoogwaardige rendering ofwel accurate geometrie bevorderen, maar zelden beide. Wij presenteren PLANING, een efficiënt *on-the-fly* reconstructieraamwerk gebouwd op een hybride representatie die expliciete geometrische primitieven losjes koppelt aan neurale Gaussians. Hierdoor kunnen geometrie en uiterlijk op een ontkoppelde manier worden gemodelleerd. Deze ontkoppeling ondersteunt een online initialisatie- en optimalisatiestrategie die geometrie- en uiterlijk-updates scheidt, wat resulteert in stabiele streamingreconstructie met aanzienlijk verminderde structurele redundantie. PLANING verbetert de dichte mesh Chamfer-L2 met 18,52% ten opzichte van PGSR, overtreft ARTDECO met 1,31 dB PSNR, en reconstrueert ScanNetV2-scènes in minder dan 100 seconden, meer dan 5x sneller dan 2D Gaussian Splatting, terwijl de kwaliteit van offline *per-scene* optimalisatie evenaart. Naast reconstructiekwaliteit maken de structurele helderheid en computationele efficiëntie van PLANING het bijzonder geschikt voor een breed scala aan downstream-toepassingen, zoals grootschalige scènemodellering en simulatieklare omgevingen voor *embodied AI*. Projectpagina: https://city-super.github.io/PLANING/.
English
Streaming reconstruction from monocular image sequences remains challenging, as existing methods typically favor either high-quality rendering or accurate geometry, but rarely both. We present PLANING, an efficient on-the-fly reconstruction framework built on a hybrid representation that loosely couples explicit geometric primitives with neural Gaussians, enabling geometry and appearance to be modeled in a decoupled manner. This decoupling supports an online initialization and optimization strategy that separates geometry and appearance updates, yielding stable streaming reconstruction with substantially reduced structural redundancy. PLANING improves dense mesh Chamfer-L2 by 18.52% over PGSR, surpasses ARTDECO by 1.31 dB PSNR, and reconstructs ScanNetV2 scenes in under 100 seconds, over 5x faster than 2D Gaussian Splatting, while matching the quality of offline per-scene optimization. Beyond reconstruction quality, the structural clarity and computational efficiency of \modelname~make it well suited for a broad range of downstream applications, such as enabling large-scale scene modeling and simulation-ready environments for embodied AI. Project page: https://city-super.github.io/PLANING/ .