FARE : Exploration Robotic Agentique Rapide-Lente
FARE: Fast-Slow Agentic Robotic Exploration
January 21, 2026
papers.authors: Shuhao Liao, Xuxin Lv, Jeric Lew, Shizhe Zhang, Jingsong Liang, Peizhuo Li, Yuhong Cao, Wenjun Wu, Guillaume Sartoretti
cs.AI
papers.abstract
Ce travail fait progresser l'exploration autonome des robots en intégrant un raisonnement sémantique au niveau de l'agent à un contrôle local rapide. Nous présentons FARE, un cadre hiérarchique d'exploration autonome qui intègre un grand modèle de langage (LLM) pour le raisonnement global avec une politique d'apprentissage par renforcement (RL) pour la prise de décision locale. FARE suit un paradigme de pensée rapide-lente. Le module LLM de pensée lente interprète une description textuelle concise de l'environnement inconnu et synthétise une stratégie d'exploration au niveau de l'agent, qui est ensuite ancrée en une séquence de points de passage globaux via un graphe topologique. Pour améliorer encore l'efficacité du raisonnement, ce module emploie un mécanisme d'élagage basé sur la modularité qui réduit les structures redondantes du graphe. Le module RL de pensée rapide exécute l'exploration en réagissant aux observations locales tout en étant guidé par les points de passage globaux générés par le LLM. La politique RL est en outre façonnée par un terme de récompense qui encourage l'adhésion aux points de passage globaux, permettant un comportement en boucle fermée cohérent et robuste. Cette architecture découple le raisonnement sémantique de la décision géométrique, permettant à chaque module d'opérer à son échelle temporelle et spatiale appropriée. Dans des environnements simulés exigeants, nos résultats montrent que FARE réalise des améliorations substantielles de l'efficacité d'exploration par rapport à l'état de l'art. Nous déployons en outre FARE sur du matériel et le validons dans un environnement de bâtiment complexe et à grande échelle de 200m×130m.
English
This work advances autonomous robot exploration by integrating agent-level semantic reasoning with fast local control. We introduce FARE, a hierarchical autonomous exploration framework that integrates a large language model (LLM) for global reasoning with a reinforcement learning (RL) policy for local decision making. FARE follows a fast-slow thinking paradigm. The slow-thinking LLM module interprets a concise textual description of the unknown environment and synthesizes an agent-level exploration strategy, which is then grounded into a sequence of global waypoints through a topological graph. To further improve reasoning efficiency, this module employs a modularity-based pruning mechanism that reduces redundant graph structures. The fast-thinking RL module executes exploration by reacting to local observations while being guided by the LLM-generated global waypoints. The RL policy is additionally shaped by a reward term that encourages adherence to the global waypoints, enabling coherent and robust closed-loop behavior. This architecture decouples semantic reasoning from geometric decision, allowing each module to operate in its appropriate temporal and spatial scale. In challenging simulated environments, our results show that FARE achieves substantial improvements in exploration efficiency over state-of-the-art baselines. We further deploy FARE on hardware and validate it in complex, large scale 200mtimes130m building environment.