GLEAM: Het leren van een generaliseerbaar verkenningsbeleid voor actieve mapping in complexe 3D binnenscènes
GLEAM: Learning Generalizable Exploration Policy for Active Mapping in Complex 3D Indoor Scenes
May 26, 2025
Auteurs: Xiao Chen, Tai Wang, Quanyi Li, Tao Huang, Jiangmiao Pang, Tianfan Xue
cs.AI
Samenvatting
Generaliseerbare actieve mapping in complexe onbekende omgevingen blijft een
cruciale uitdaging voor mobiele robots. Bestaande methoden, beperkt door
onvoldoende trainingsdata en conservatieve verkenningstrategieën, vertonen
beperkte generaliseerbaarheid over scènes met diverse lay-outs en complexe
connectiviteit. Om schaalbare training en betrouwbare evaluatie mogelijk te
maken, introduceren we GLEAM-Bench, de eerste grootschalige benchmark ontworpen
voor generaliseerbare actieve mapping met 1.152 diverse 3D-scènes uit
synthetische en real-scan datasets. Op basis hiervan stellen we GLEAM voor, een
geünificeerd generaliseerbaar verkenningbeleid voor actieve mapping. De
superieure generaliseerbaarheid komt voornamelijk voort uit onze semantische
representaties, langetermijn navigeerbare doelen en gerandomiseerde strategieën.
Het overtreft aanzienlijk state-of-the-art methoden, met een dekking van 66,50%
(+9,49%) met efficiënte trajecten en verbeterde mappingnauwkeurigheid op 128
onbekende complexe scènes. Projectpagina: https://xiao-chen.tech/gleam/.
English
Generalizable active mapping in complex unknown environments remains a
critical challenge for mobile robots. Existing methods, constrained by
insufficient training data and conservative exploration strategies, exhibit
limited generalizability across scenes with diverse layouts and complex
connectivity. To enable scalable training and reliable evaluation, we introduce
GLEAM-Bench, the first large-scale benchmark designed for generalizable active
mapping with 1,152 diverse 3D scenes from synthetic and real-scan datasets.
Building upon this foundation, we propose GLEAM, a unified generalizable
exploration policy for active mapping. Its superior generalizability comes
mainly from our semantic representations, long-term navigable goals, and
randomized strategies. It significantly outperforms state-of-the-art methods,
achieving 66.50% coverage (+9.49%) with efficient trajectories and improved
mapping accuracy on 128 unseen complex scenes. Project page:
https://xiao-chen.tech/gleam/.