ChatPaper.aiChatPaper

PLANING : Un cadre Triangle-Gaussien faiblement couplé pour la reconstruction 3D en flux continu

PLANING: A Loosely Coupled Triangle-Gaussian Framework for Streaming 3D Reconstruction

January 29, 2026
papers.authors: Changjian Jiang, Kerui Ren, Xudong Li, Kaiwen Song, Linning Xu, Tao Lu, Junting Dong, Yu Zhang, Bo Dai, Mulin Yu
cs.AI

papers.abstract

La reconstruction en flux continu à partir de séquences d'images monoculaires reste difficile, car les méthodes existantes privilégient généralement soit le rendu de haute qualité, soit la précision géométrique, mais rarement les deux. Nous présentons PLANING, un cadre de reconstruction efficace à la volée construit sur une représentation hybride qui couple de manière lâche des primitives géométriques explicites avec des Gaussiennes neuronales, permettant de modéliser la géométrie et l'apparence de manière découplée. Ce découplage prend en charge une stratégie d'initialisation et d'optimisation en ligne qui sépare les mises à jour de géométrie et d'apparence, produisant une reconstruction en flux stable avec une redondance structurelle considérablement réduite. PLANING améliore la distance de Chamfer-L2 sur maillage dense de 18,52 % par rapport à PGSR, dépasse ARTDECO de 1,31 dB en PSNR, et reconstruit les scènes ScanNetV2 en moins de 100 secondes, soit plus de 5 fois plus vite que le *2D Gaussian Splatting*, tout en égalant la qualité de l'optimisation hors ligne par scène. Au-delà de la qualité de reconstruction, la clarté structurelle et l'efficacité computationnelle de PLANING le rendent particulièrement adapté à un large éventail d'applications en aval, telles que la modélisation de scènes à grande échelle et la création d'environnements prêts pour la simulation pour l'IA incarnée. Page du projet : https://city-super.github.io/PLANING/ .
English
Streaming reconstruction from monocular image sequences remains challenging, as existing methods typically favor either high-quality rendering or accurate geometry, but rarely both. We present PLANING, an efficient on-the-fly reconstruction framework built on a hybrid representation that loosely couples explicit geometric primitives with neural Gaussians, enabling geometry and appearance to be modeled in a decoupled manner. This decoupling supports an online initialization and optimization strategy that separates geometry and appearance updates, yielding stable streaming reconstruction with substantially reduced structural redundancy. PLANING improves dense mesh Chamfer-L2 by 18.52% over PGSR, surpasses ARTDECO by 1.31 dB PSNR, and reconstructs ScanNetV2 scenes in under 100 seconds, over 5x faster than 2D Gaussian Splatting, while matching the quality of offline per-scene optimization. Beyond reconstruction quality, the structural clarity and computational efficiency of \modelname~make it well suited for a broad range of downstream applications, such as enabling large-scale scene modeling and simulation-ready environments for embodied AI. Project page: https://city-super.github.io/PLANING/ .
PDF203January 31, 2026