ChatPaper.aiChatPaper

WALL-E 2.0: Выравнивание мира через нейросимволическое обучение улучшает агентов на основе языковых моделей с мировыми моделями

WALL-E 2.0: World Alignment by NeuroSymbolic Learning improves World Model-based LLM Agents

April 22, 2025
Авторы: Siyu Zhou, Tianyi Zhou, Yijun Yang, Guodong Long, Deheng Ye, Jing Jiang, Chengqi Zhang
cs.AI

Аннотация

Можем ли мы построить точные модели мира на основе больших языковых моделей (LLM)? Как модели мира могут улучшить агентов на основе LLM? Разрыв между априорными знаниями LLM и динамикой конкретной среды обычно ограничивает их производительность в качестве моделей мира. Чтобы преодолеть этот разрыв, мы предлагаем метод "выравнивания мира" без обучения, который извлекает символические знания о среде, дополняющие LLM. Эти символические знания включают правила действий, графы знаний и графы сцен, которые извлекаются LLM из траекторий исследования и кодируются в исполняемый код для регулирования политик агентов LLM. Мы также предлагаем агента "WALL-E 2.0", основанного на модели и не требующего обучения с подкреплением (RL), в рамках модели прогнозирующего управления (MPC). В отличие от классического MPC, требующего дорогостоящей оптимизации в реальном времени, мы используем агента LLM в качестве эффективного оптимизатора будущих шагов, взаимодействующего с нейросимволической моделью мира. Хотя сильные эвристики агента LLM делают его эффективным планировщиком в MPC, качество его запланированных действий также обеспечивается точными прогнозами выровненной модели мира. Вместе они значительно повышают эффективность обучения в новой среде. В открытых задачах в среде Mars (подобной Minecraft) и ALFWorld (воплощенные внутренние среды) WALL-E 2.0 значительно превосходит существующие методы, например, превышая базовые показатели в Mars на 16,1%-51,6% по успешности и как минимум на 61,7% по баллам. В ALFWorld он достигает нового рекорда — 98% успешности всего за 4 итерации.
English
Can we build accurate world models out of large language models (LLMs)? How can world models benefit LLM agents? The gap between the prior knowledge of LLMs and the specified environment's dynamics usually bottlenecks LLMs' performance as world models. To bridge the gap, we propose a training-free "world alignment" that learns an environment's symbolic knowledge complementary to LLMs. The symbolic knowledge covers action rules, knowledge graphs, and scene graphs, which are extracted by LLMs from exploration trajectories and encoded into executable codes to regulate LLM agents' policies. We further propose an RL-free, model-based agent "WALL-E 2.0" through the model-predictive control (MPC) framework. Unlike classical MPC requiring costly optimization on the fly, we adopt an LLM agent as an efficient look-ahead optimizer of future steps' actions by interacting with the neurosymbolic world model. While the LLM agent's strong heuristics make it an efficient planner in MPC, the quality of its planned actions is also secured by the accurate predictions of the aligned world model. They together considerably improve learning efficiency in a new environment. On open-world challenges in Mars (Minecraft like) and ALFWorld (embodied indoor environments), WALL-E 2.0 significantly outperforms existing methods, e.g., surpassing baselines in Mars by 16.1%-51.6% of success rate and by at least 61.7% in score. In ALFWorld, it achieves a new record 98% success rate after only 4 iterations.

Summary

AI-Generated Summary

PDF184April 23, 2025