ChatPaper.aiChatPaper

FARE: Esplorazione Robotica Agente Veloce-Lenta

FARE: Fast-Slow Agentic Robotic Exploration

January 21, 2026
Autori: Shuhao Liao, Xuxin Lv, Jeric Lew, Shizhe Zhang, Jingsong Liang, Peizhuo Li, Yuhong Cao, Wenjun Wu, Guillaume Sartoretti
cs.AI

Abstract

Questo lavoro avanza l'esplorazione autonoma dei robot integrando il ragionamento semantico a livello di agente con un controllo locale rapido. Introduciamo FARE, un framework gerarchico per l'esplorazione autonoma che integra un grande modello linguistico (LLM) per il ragionamento globale con una politica di apprendimento per rinforzo (RL) per il processo decisionale locale. FARE segue un paradigma di pensiero veloce-lento. Il modulo LLM a pensiero lento interpreta una descrizione testuale concisa dell'ambiente sconosciuto e sintetizza una strategia di esplorazione a livello di agente, che viene poi radicata in una sequenza di waypoint globali attraverso un grafo topologico. Per migliorare ulteriormente l'efficienza del ragionamento, questo modulo impiega un meccanismo di potatura basato sulla modularità che riduce le strutture ridondanti del grafo. Il modulo RL a pensiero veloce esegue l'esplorazione reagendo alle osservazioni locali mentre è guidato dai waypoint globali generati dall'LLM. La politica RL è inoltre modellata da un termine di ricompensa che incoraggia l'aderenza ai waypoint globali, consentendo un comportamento coerente e robusto a ciclo chiuso. Questa architettura disaccoppia il ragionamento semantico dalla decisione geometrica, permettendo a ciascun modulo di operare sulla propria appropriata scala temporale e spaziale. In ambienti simulati complessi, i nostri risultati mostrano che FARE raggiunge miglioramenti sostanziali nell'efficienza di esplorazione rispetto ai metodi allo stato dell'arte. Implementiamo inoltre FARE su hardware e lo convalidiamo in un ambiente edificio complesso e su larga scala di 200m x 130m.
English
This work advances autonomous robot exploration by integrating agent-level semantic reasoning with fast local control. We introduce FARE, a hierarchical autonomous exploration framework that integrates a large language model (LLM) for global reasoning with a reinforcement learning (RL) policy for local decision making. FARE follows a fast-slow thinking paradigm. The slow-thinking LLM module interprets a concise textual description of the unknown environment and synthesizes an agent-level exploration strategy, which is then grounded into a sequence of global waypoints through a topological graph. To further improve reasoning efficiency, this module employs a modularity-based pruning mechanism that reduces redundant graph structures. The fast-thinking RL module executes exploration by reacting to local observations while being guided by the LLM-generated global waypoints. The RL policy is additionally shaped by a reward term that encourages adherence to the global waypoints, enabling coherent and robust closed-loop behavior. This architecture decouples semantic reasoning from geometric decision, allowing each module to operate in its appropriate temporal and spatial scale. In challenging simulated environments, our results show that FARE achieves substantial improvements in exploration efficiency over state-of-the-art baselines. We further deploy FARE on hardware and validate it in complex, large scale 200mtimes130m building environment.
PDF61February 7, 2026