ChatPaper.aiChatPaper

InfiniDepth: ニューラル陰関数フィールドによる任意解像度かつ細粒度な深度推定

InfiniDepth: Arbitrary-Resolution and Fine-Grained Depth Estimation with Neural Implicit Fields

January 6, 2026
著者: Hao Yu, Haotong Lin, Jiawei Wang, Jiaxin Li, Yida Wang, Xueyang Zhang, Yue Wang, Xiaowei Zhou, Ruizhen Hu, Sida Peng
cs.AI

要旨

既存の深度推定手法は、本質的に離散的な画像グリッド上での深度予測に限定されています。このような表現形式は任意の解像度への拡張性を制限し、幾何学的な詳細の回復を妨げます。本論文では、深度をニューラル暗黙的表現としてモデル化するInfiniDepthを提案します。シンプルかつ効果的なローカル暗黙デコーダを通じて、連続的な2D座標における深度値をクエリ可能にし、任意解像度かつ微細な深度推定を実現します。本手法の性能を適切に評価するため、5種類のゲームから多様な幾何形状と外観詳細を備えた高品質な4K合成ベンチマークを構築しました。大規模な実験により、InfiniDepthが相対深度推定と絶対深度推定の両タスクにおいて、合成データと実世界データのベンチマークで最先端の性能を達成し、特に微細な領域で優れた結果を示すことを確認しました。さらに、大規模な視点移動を伴う新規視点合成タスクにおいても有効であり、穴やアーティファクトの少ない高品質な結果を生成します。
English
Existing depth estimation methods are fundamentally limited to predicting depth on discrete image grids. Such representations restrict their scalability to arbitrary output resolutions and hinder the geometric detail recovery. This paper introduces InfiniDepth, which represents depth as neural implicit fields. Through a simple yet effective local implicit decoder, we can query depth at continuous 2D coordinates, enabling arbitrary-resolution and fine-grained depth estimation. To better assess our method's capabilities, we curate a high-quality 4K synthetic benchmark from five different games, spanning diverse scenes with rich geometric and appearance details. Extensive experiments demonstrate that InfiniDepth achieves state-of-the-art performance on both synthetic and real-world benchmarks across relative and metric depth estimation tasks, particularly excelling in fine-detail regions. It also benefits the task of novel view synthesis under large viewpoint shifts, producing high-quality results with fewer holes and artifacts.
PDF717January 8, 2026