ChatPaper.aiChatPaper

FARE: Snelle-Langzame Agent-gebaseerde Robotverkenning

FARE: Fast-Slow Agentic Robotic Exploration

January 21, 2026
Auteurs: Shuhao Liao, Xuxin Lv, Jeric Lew, Shizhe Zhang, Jingsong Liang, Peizhuo Li, Yuhong Cao, Wenjun Wu, Guillaume Sartoretti
cs.AI

Samenvatting

Dit werk bevordert autonome robotverkenning door agentniveau semantisch redeneren te integreren met snelle lokale controle. Wij introduceren FARE, een hiërarchisch autonoom verkenningsraamwerk dat een groot taalmodel (LLM) voor globaal redeneren integreert met een reinforcement learning (RL)-beleid voor lokale besluitvorming. FARE volgt een snel-traag-denken paradigma. De traag-denken LLM-module interpreteert een beknopte tekstuele beschrijving van de onbekende omgeving en synthetiseert een agentniveau verkenningsstrategie, die vervolgens wordt verankerd in een reeks globale waypoints via een topologische grafiek. Om de redeneerefficiëntie verder te verbeteren, gebruikt deze module een op modulariteit gebaseerd snoeimechanisme dat redundante grafiekstructuren reduceert. De snel-denken RL-module voert verkenning uit door te reageren op lokale observaties, terwijl deze wordt geleid door de door het LLM gegenereerde globale waypoints. Het RL-beleid wordt bovendien gevormd door een beloningsterm die naleving van de globale waypoints aanmoedigt, wat coherent en robuust gesloten-lus gedrag mogelijk maakt. Deze architectuur ontkoppelt semantisch redeneren van geometrische besluitvorming, waardoor elke module op zijn passende temporele en ruimtelijke schaal kan opereren. In uitdagende gesimuleerde omgevingen tonen onze resultaten aan dat FARE substantiële verbeteringen in verkennings efficiëntie bereikt ten opzichte van state-of-the-art baseline methoden. Wij implementeren FARE verder op hardware en valideren het in een complexe, grootschalige 200m×130m gebouwomgeving.
English
This work advances autonomous robot exploration by integrating agent-level semantic reasoning with fast local control. We introduce FARE, a hierarchical autonomous exploration framework that integrates a large language model (LLM) for global reasoning with a reinforcement learning (RL) policy for local decision making. FARE follows a fast-slow thinking paradigm. The slow-thinking LLM module interprets a concise textual description of the unknown environment and synthesizes an agent-level exploration strategy, which is then grounded into a sequence of global waypoints through a topological graph. To further improve reasoning efficiency, this module employs a modularity-based pruning mechanism that reduces redundant graph structures. The fast-thinking RL module executes exploration by reacting to local observations while being guided by the LLM-generated global waypoints. The RL policy is additionally shaped by a reward term that encourages adherence to the global waypoints, enabling coherent and robust closed-loop behavior. This architecture decouples semantic reasoning from geometric decision, allowing each module to operate in its appropriate temporal and spatial scale. In challenging simulated environments, our results show that FARE achieves substantial improvements in exploration efficiency over state-of-the-art baselines. We further deploy FARE on hardware and validate it in complex, large scale 200mtimes130m building environment.
PDF61February 7, 2026