PLANING: un framework triangolo-gaussiano a basso accoppiamento per la ricostruzione 3D in streaming
PLANING: A Loosely Coupled Triangle-Gaussian Framework for Streaming 3D Reconstruction
January 29, 2026
Autori: Changjian Jiang, Kerui Ren, Xudong Li, Kaiwen Song, Linning Xu, Tao Lu, Junting Dong, Yu Zhang, Bo Dai, Mulin Yu
cs.AI
Abstract
La ricostruzione in streaming da sequenze di immagini monoculari rimane una sfida, poiché i metodi esistenti privilegiano tipicamente il rendering di alta qualità o la geometria accurata, ma raramente entrambi. Presentiamo PLANING, un framework efficiente di ricostruzione on-the-fly basato su una rappresentazione ibrida che accoppia in modo lasco primitive geometriche esplicite con Gaussiane neurali, consentendo alla geometria e all'aspetto di essere modellati in modo disaccoppiato. Questo disaccoppiamento supporta una strategia di inizializzazione e ottimizzazione online che separa gli aggiornamenti di geometria e aspetto, producendo una ricostruzione in streaming stabile con una riduzione sostanziale della ridondanza strutturale. PLANING migliora la metrica Chamfer-L2 sulla mesh densa del 18,52% rispetto a PGSR, supera ARTDECO di 1,31 dB in PSNR e ricostruisce le scene di ScanNetV2 in meno di 100 secondi, oltre 5 volte più velocemente del 2D Gaussian Splatting, pur eguagliando la qualità dell'ottimizzazione offline per scena. Oltre alla qualità della ricostruzione, la chiarezza strutturale e l'efficienza computazionale di PLANING lo rendono adatto a un'ampia gamma di applicazioni a valle, come la modellazione di scene su larga scala e la creazione di ambienti pronti per la simulazione per AI incarnata. Pagina del progetto: https://city-super.github.io/PLANING/ .
English
Streaming reconstruction from monocular image sequences remains challenging, as existing methods typically favor either high-quality rendering or accurate geometry, but rarely both. We present PLANING, an efficient on-the-fly reconstruction framework built on a hybrid representation that loosely couples explicit geometric primitives with neural Gaussians, enabling geometry and appearance to be modeled in a decoupled manner. This decoupling supports an online initialization and optimization strategy that separates geometry and appearance updates, yielding stable streaming reconstruction with substantially reduced structural redundancy. PLANING improves dense mesh Chamfer-L2 by 18.52% over PGSR, surpasses ARTDECO by 1.31 dB PSNR, and reconstructs ScanNetV2 scenes in under 100 seconds, over 5x faster than 2D Gaussian Splatting, while matching the quality of offline per-scene optimization. Beyond reconstruction quality, the structural clarity and computational efficiency of \modelname~make it well suited for a broad range of downstream applications, such as enabling large-scale scene modeling and simulation-ready environments for embodied AI. Project page: https://city-super.github.io/PLANING/ .