ChatPaper.aiChatPaper

IGL-Nav: Inkrementelle 3D-Gauß-Lokalisierung für bildzielbasierte Navigation

IGL-Nav: Incremental 3D Gaussian Localization for Image-goal Navigation

August 1, 2025
papers.authors: Wenxuan Guo, Xiuwei Xu, Hang Yin, Ziwei Wang, Jianjiang Feng, Jie Zhou, Jiwen Lu
cs.AI

papers.abstract

Visuelle Navigation mit einem Bild als Ziel ist ein grundlegendes und herausforderndes Problem. Konventionelle Methoden verlassen sich entweder auf end-to-end RL-Lernen oder auf eine modulare Policy mit einem topologischen Graphen oder einer BEV-Karte als Gedächtnis, was die geometrische Beziehung zwischen der erkundeten 3D-Umgebung und dem Zielbild nicht vollständig modellieren kann. Um das Zielbild effizient und präzise im 3D-Raum zu lokalisieren, bauen wir unser Navigationssystem auf der renderbaren 3D-Gauß-Darstellung (3DGS) auf. Aufgrund der rechenintensiven Natur der 3DGS-Optimierung und des großen Suchraums der 6-DoF-Kamerapose ist es jedoch äußerst ineffizient, 3DGS direkt für die Bildlokalisierung während des Erkundungsprozesses des Agenten zu nutzen. Daher schlagen wir IGL-Nav vor, ein inkrementelles 3D-Gauß-Lokalisierungsframework für effiziente und 3D-bewusste Bildzielnavigation. Konkret aktualisieren wir die Szenendarstellung inkrementell, wenn neue Bilder mit einer vorwärtsgerichteten monokularen Vorhersage eintreffen. Dann lokalisieren wir das Ziel grob, indem wir die geometrischen Informationen für die diskrete Raumabgleichung nutzen, was einer effizienten 3D-Faltung entspricht. Wenn sich der Agent dem Ziel nähert, lösen wir schließlich die genaue Zielpose durch Optimierung mittels differenzierbarem Rendering. Das vorgeschlagene IGL-Nav übertrifft die bestehenden State-of-the-Art-Methoden deutlich in verschiedenen experimentellen Konfigurationen. Es kann auch die anspruchsvollere freie Sicht-Bildziel-Einstellung bewältigen und auf einer realen Roboterplattform eingesetzt werden, wobei ein Handy verwendet wird, um das Zielbild in einer beliebigen Pose aufzunehmen. Projektseite: https://gwxuan.github.io/IGL-Nav/.
English
Visual navigation with an image as goal is a fundamental and challenging problem. Conventional methods either rely on end-to-end RL learning or modular-based policy with topological graph or BEV map as memory, which cannot fully model the geometric relationship between the explored 3D environment and the goal image. In order to efficiently and accurately localize the goal image in 3D space, we build our navigation system upon the renderable 3D gaussian (3DGS) representation. However, due to the computational intensity of 3DGS optimization and the large search space of 6-DoF camera pose, directly leveraging 3DGS for image localization during agent exploration process is prohibitively inefficient. To this end, we propose IGL-Nav, an Incremental 3D Gaussian Localization framework for efficient and 3D-aware image-goal navigation. Specifically, we incrementally update the scene representation as new images arrive with feed-forward monocular prediction. Then we coarsely localize the goal by leveraging the geometric information for discrete space matching, which can be equivalent to efficient 3D convolution. When the agent is close to the goal, we finally solve the fine target pose with optimization via differentiable rendering. The proposed IGL-Nav outperforms existing state-of-the-art methods by a large margin across diverse experimental configurations. It can also handle the more challenging free-view image-goal setting and be deployed on real-world robotic platform using a cellphone to capture goal image at arbitrary pose. Project page: https://gwxuan.github.io/IGL-Nav/.
PDF42August 4, 2025