PLANING: Ein lose gekoppeltes Dreieck-Gauß-Framework für Streaming-3D-Rekonstruktion
PLANING: A Loosely Coupled Triangle-Gaussian Framework for Streaming 3D Reconstruction
January 29, 2026
papers.authors: Changjian Jiang, Kerui Ren, Xudong Li, Kaiwen Song, Linning Xu, Tao Lu, Junting Dong, Yu Zhang, Bo Dai, Mulin Yu
cs.AI
papers.abstract
Die Streaming-Rekonstruktion aus monokularen Bildsequenzen bleibt eine Herausforderung, da bestehende Methoden typischerweise entweder hochwertiges Rendering oder präzise Geometrie begünstigen, jedoch selten beides gleichzeitig. Wir stellen PLANING vor, einen effizienten Echtzeit-Rekonstruktionsrahmen, der auf einer hybriden Repräsentation basiert, die explizite geometrische Primitive locker mit neuronalen Gaussians koppelt. Dies ermöglicht eine entkoppelte Modellierung von Geometrie und Erscheinungsbild. Diese Entkopplung unterstützt eine Online-Initialisierungs- und Optimierungsstrategie, die Geometrie- und Darstellungsupdates trennt, was eine stabile Streaming-Rekonstruktion mit deutlich reduzierter struktureller Redundanz ergibt. PLANING verbessert das dichte Mesh-Chamfer-L2 um 18,52 % gegenüber PGSR, übertrifft ARTDECO um 1,31 dB PSNR und rekonstruiert ScanNetV2-Szenen in unter 100 Sekunden – mehr als 5-mal schneller als 2D Gaussian Splatting – bei gleichbleibender Qualität der offline pro Szene optimierten Verfahren. Über die Rekonstruktionsqualität hinaus machen die strukturelle Klarheit und Recheneffizienz von PLANING es ideal für eine breite Palette nachgelagerter Anwendungen geeignet, wie die Modellierung großflächiger Szenen und simulationsfähige Umgebungen für embodied AI. Projektseite: https://city-super.github.io/PLANING/.
English
Streaming reconstruction from monocular image sequences remains challenging, as existing methods typically favor either high-quality rendering or accurate geometry, but rarely both. We present PLANING, an efficient on-the-fly reconstruction framework built on a hybrid representation that loosely couples explicit geometric primitives with neural Gaussians, enabling geometry and appearance to be modeled in a decoupled manner. This decoupling supports an online initialization and optimization strategy that separates geometry and appearance updates, yielding stable streaming reconstruction with substantially reduced structural redundancy. PLANING improves dense mesh Chamfer-L2 by 18.52% over PGSR, surpasses ARTDECO by 1.31 dB PSNR, and reconstructs ScanNetV2 scenes in under 100 seconds, over 5x faster than 2D Gaussian Splatting, while matching the quality of offline per-scene optimization. Beyond reconstruction quality, the structural clarity and computational efficiency of \modelname~make it well suited for a broad range of downstream applications, such as enabling large-scale scene modeling and simulation-ready environments for embodied AI. Project page: https://city-super.github.io/PLANING/ .