ChatPaper.aiChatPaper

FARE: Exploración Robótica Ágente Rápida-Lenta

FARE: Fast-Slow Agentic Robotic Exploration

January 21, 2026
Autores: Shuhao Liao, Xuxin Lv, Jeric Lew, Shizhe Zhang, Jingsong Liang, Peizhuo Li, Yuhong Cao, Wenjun Wu, Guillaume Sartoretti
cs.AI

Resumen

Este trabajo avanza en la exploración autónoma de robots mediante la integración de razonamiento semántico a nivel de agente con control local rápido. Presentamos FARE, un marco de exploración autónoma jerárquico que integra un modelo de lenguaje grande (LLM) para el razonamiento global con una política de aprendizaje por refuerzo (RL) para la toma de decisiones local. FARE sigue un paradigma de pensamiento rápido-lento. El módulo de pensamiento lento (LLM) interpreta una descripción textual concisa del entorno desconocido y sintetiza una estrategia de exploración a nivel de agente, que luego se materializa en una secuencia de waypoints globales a través de un grafo topológico. Para mejorar aún más la eficiencia del razonamiento, este módulo emplea un mecanismo de poda basado en modularidad que reduce las estructuras de grafos redundantes. El módulo de pensamiento rápido (RL) ejecuta la exploración reaccionando a las observaciones locales mientras es guiado por los waypoints globales generados por el LLM. La política de RL se moldea adicionalmente mediante un término de recompensa que fomenta la adherencia a los waypoints globales, permitiendo un comportamiento coherente y robusto en lazo cerrado. Esta arquitectura desacopla el razonamiento semántico de la decisión geométrica, permitiendo que cada módulo opere en su escala temporal y espacial apropiada. En entornos simulados desafiantes, nuestros resultados muestran que FARE logra mejoras sustanciales en la eficiencia de exploración respecto a los métodos de referencia más avanzados. Además, implementamos FARE en hardware y lo validamos en un entorno de edificio complejo y a gran escala de 200m × 130m.
English
This work advances autonomous robot exploration by integrating agent-level semantic reasoning with fast local control. We introduce FARE, a hierarchical autonomous exploration framework that integrates a large language model (LLM) for global reasoning with a reinforcement learning (RL) policy for local decision making. FARE follows a fast-slow thinking paradigm. The slow-thinking LLM module interprets a concise textual description of the unknown environment and synthesizes an agent-level exploration strategy, which is then grounded into a sequence of global waypoints through a topological graph. To further improve reasoning efficiency, this module employs a modularity-based pruning mechanism that reduces redundant graph structures. The fast-thinking RL module executes exploration by reacting to local observations while being guided by the LLM-generated global waypoints. The RL policy is additionally shaped by a reward term that encourages adherence to the global waypoints, enabling coherent and robust closed-loop behavior. This architecture decouples semantic reasoning from geometric decision, allowing each module to operate in its appropriate temporal and spatial scale. In challenging simulated environments, our results show that FARE achieves substantial improvements in exploration efficiency over state-of-the-art baselines. We further deploy FARE on hardware and validate it in complex, large scale 200mtimes130m building environment.
PDF40January 23, 2026