ChatPaper.aiChatPaper

FARE: Schnell-langsame agentenbasierte robotische Exploration

FARE: Fast-Slow Agentic Robotic Exploration

January 21, 2026
papers.authors: Shuhao Liao, Xuxin Lv, Jeric Lew, Shizhe Zhang, Jingsong Liang, Peizhuo Li, Yuhong Cao, Wenjun Wu, Guillaume Sartoretti
cs.AI

papers.abstract

Diese Arbeit erweitert die autonome Roboterexploration durch die Integration von semantischer Agenten-Ebene-Planung mit schneller lokaler Steuerung. Wir stellen FARE vor, einen hierarchischen autonomen Explorationsframework, der ein großes Sprachmodell (LLM) für globale Planung mit einer Reinforcement-Learning (RL)-Policy für lokale Entscheidungsfindung kombiniert. FARE folgt einem Paradigma des schnellen und langsamen Denkens. Das langsam denkende LLM-Modul interpretiert eine knappe textuelle Beschreibung der unbekannten Umgebung und erstellt eine agentenbasierte Explorationsstrategie, die anschließend über einen topologischen Graphen in eine Abfolge globaler Wegpunkte überführt wird. Um die Planungseffizienz weiter zu steigern, nutzt dieses Modul einen Modularitäts-basierten Reduktionsmechanismus, der redundante Graphenstrukturen entfernt. Das schnell denkende RL-Modul führt die Exploration durch Reaktion auf lokale Beobachtungen aus, während es durch die LLM-generierten globalen Wegpunkte geleitet wird. Die RL-Policy wird zusätzlich durch einen Belohnungsterm geformt, der die Einhaltung der globalen Wegpunkte fördert und so kohärentes sowie robustes Closed-Loop-Verhalten ermöglicht. Diese Architektur entkoppelt semantische Planung von geometrischer Entscheidungsfindung und erlaubt jedem Modul, in seiner geeigneten zeitlichen und räumlichen Skala zu operieren. In anspruchsvollen simulierten Umgebungen zeigen unsere Ergebnisse, dass FARE substantiale Verbesserungen der Explorationseffizienz gegenüber state-of-the-art Baseline-Methoden erzielt. Wir setzen FARE weiterhin auf Hardware ein und validieren es in einer komplexen, großflächigen 200m×130m Gebäudeumgebung.
English
This work advances autonomous robot exploration by integrating agent-level semantic reasoning with fast local control. We introduce FARE, a hierarchical autonomous exploration framework that integrates a large language model (LLM) for global reasoning with a reinforcement learning (RL) policy for local decision making. FARE follows a fast-slow thinking paradigm. The slow-thinking LLM module interprets a concise textual description of the unknown environment and synthesizes an agent-level exploration strategy, which is then grounded into a sequence of global waypoints through a topological graph. To further improve reasoning efficiency, this module employs a modularity-based pruning mechanism that reduces redundant graph structures. The fast-thinking RL module executes exploration by reacting to local observations while being guided by the LLM-generated global waypoints. The RL policy is additionally shaped by a reward term that encourages adherence to the global waypoints, enabling coherent and robust closed-loop behavior. This architecture decouples semantic reasoning from geometric decision, allowing each module to operate in its appropriate temporal and spatial scale. In challenging simulated environments, our results show that FARE achieves substantial improvements in exploration efficiency over state-of-the-art baselines. We further deploy FARE on hardware and validate it in complex, large scale 200mtimes130m building environment.
PDF40January 23, 2026