ChatPaper.aiChatPaper

MeshSplat: ガウススプラッティングによる一般化可能なスパースビュー表面再構成

MeshSplat: Generalizable Sparse-View Surface Reconstruction via Gaussian Splatting

August 25, 2025
著者: Hanzhi Chang, Ruijie Zhu, Wenjie Chang, Mulin Yu, Yanzhe Liang, Jiahao Lu, Zhuoyuan Li, Tianzhu Zhang
cs.AI

要旨

表面再構成は、コンピュータビジョンとグラフィックスの分野で広く研究されてきました。しかし、既存の表面再構成手法は、入力ビューが極めて疎である場合に正確なシーン幾何学を復元するのに苦労しています。この問題に対処するため、我々はGaussian Splattingを介した汎用的な疎ビュー表面再構成フレームワークであるMeshSplatを提案します。我々の鍵となるアイデアは、2DGSを橋渡しとして活用し、新規ビュー合成と学習された幾何学的プライアを接続し、これらのプライアを転送して表面再構成を実現することです。具体的には、フィードフォワードネットワークを組み込み、ビューごとのピクセル整列2DGSを予測することで、ネットワークが新規ビュー画像を合成できるようにし、直接的な3Dグラウンドトゥルース監視の必要性を排除します。2DGSの位置と方向の予測精度を向上させるために、重み付きChamfer距離損失を提案し、特に入力ビューの重複領域での深度マップを正則化します。また、単眼法線推定器によって予測された法線ベクトルと2DGSの方向を整列させるための法線予測ネットワークも提案します。広範な実験により、提案した改善の有効性が検証され、我々の手法が汎用的な疎ビューメッシュ再構成タスクにおいて最先端の性能を達成することが示されました。プロジェクトページ: https://hanzhichang.github.io/meshsplat_web
English
Surface reconstruction has been widely studied in computer vision and graphics. However, existing surface reconstruction works struggle to recover accurate scene geometry when the input views are extremely sparse. To address this issue, we propose MeshSplat, a generalizable sparse-view surface reconstruction framework via Gaussian Splatting. Our key idea is to leverage 2DGS as a bridge, which connects novel view synthesis to learned geometric priors and then transfers these priors to achieve surface reconstruction. Specifically, we incorporate a feed-forward network to predict per-view pixel-aligned 2DGS, which enables the network to synthesize novel view images and thus eliminates the need for direct 3D ground-truth supervision. To improve the accuracy of 2DGS position and orientation prediction, we propose a Weighted Chamfer Distance Loss to regularize the depth maps, especially in overlapping areas of input views, and also a normal prediction network to align the orientation of 2DGS with normal vectors predicted by a monocular normal estimator. Extensive experiments validate the effectiveness of our proposed improvement, demonstrating that our method achieves state-of-the-art performance in generalizable sparse-view mesh reconstruction tasks. Project Page: https://hanzhichang.github.io/meshsplat_web
PDF11August 26, 2025