ChatPaper.aiChatPaper

深度推定の基盤モデル:パノラマ深度推定のためのDepth Any Panoramas

Depth Any Panoramas: A Foundation Model for Panoramic Depth Estimation

December 18, 2025
著者: Xin Lin, Meixi Song, Dizhe Zhang, Wenxuan Lu, Haodong Li, Bo Du, Ming-Hsuan Yang, Truong Nguyen, Lu Qi
cs.AI

要旨

本論文では、多様なシーン距離に汎化するパノラマ計測深度基盤モデルを提案する。データ構築とフレームワーク設計の両面から、データインザループのパラダイムを探求する。公開データセット、UE5シミュレーターによる高品質合成データ、テキストto画像モデル、Web収集実パノラマ画像を統合した大規模データセットを構築した。屋内/屋外および合成/実データ間のドメインギャップ低減のため、未ラベル画像への信頼性の高い教師データ生成を目的とした3段階の擬似ラベル精製パイプラインを導入する。モデルでは、強力な事前学習汎化性能を持つDINOv3-Largeをバックボーンに採用し、プラグアンドプレイの距離マスクヘッド、鮮鋭性中心最適化、幾何学的一貫性を強化する幾何学中心最適化を追加。複数ベンチマーク(Stanford2D3D、Matterport3D、Deep360等)での実験により、優れた性能とゼロショット汎化能力を実証し、実世界シーンにおける特にロバストで安定した計測予測を実現した。プロジェクトページは以下:https://insta360-research-team.github.io/DAP_website/
English
In this work, we present a panoramic metric depth foundation model that generalizes across diverse scene distances. We explore a data-in-the-loop paradigm from the view of both data construction and framework design. We collect a large-scale dataset by combining public datasets, high-quality synthetic data from our UE5 simulator and text-to-image models, and real panoramic images from the web. To reduce domain gaps between indoor/outdoor and synthetic/real data, we introduce a three-stage pseudo-label curation pipeline to generate reliable ground truth for unlabeled images. For the model, we adopt DINOv3-Large as the backbone for its strong pre-trained generalization, and introduce a plug-and-play range mask head, sharpness-centric optimization, and geometry-centric optimization to improve robustness to varying distances and enforce geometric consistency across views. Experiments on multiple benchmarks (e.g., Stanford2D3D, Matterport3D, and Deep360) demonstrate strong performance and zero-shot generalization, with particularly robust and stable metric predictions in diverse real-world scenes. The project page can be found at: https://insta360-research-team.github.io/DAP_website/ {https://insta360-research-team.github.io/DAP\_website/}
PDF292December 20, 2025