WALL-E: Выравнивание мира посредством обучения правил улучшает модель мира на основе LLM агентовWALL-E: World Alignment by Rule Learning Improves World Model-based LLM
Agents
Могут ли большие языковые модели (LLM) непосредственно служить мощными моделями мира для агентов, основанных на моделях? Хотя разрывы между предварительными знаниями LLM и динамикой указанной среды существуют, наше исследование показывает, что эти разрывы могут быть преодолены путем выравнивания LLM с развернутой средой, и такое "выравнивание мира" может быть эффективно достигнуто путем обучения правилам на LLM. Учитывая богатые предварительные знания LLM, лишь несколько дополнительных правил достаточны для выравнивания прогнозов LLM с динамикой указанной среды. В этом контексте мы предлагаем нейросимволический подход к обучению этих правил без градиента через LLM, путем индукции, обновления и обрезки правил на основе сравнений траекторий, исследуемых агентом, и прогнозов модели мира. Получившаяся модель мира состоит из LLM и выученных правил. Наш воплощенный агент LLM "WALL-E" построен на модельно-предиктивном управлении (MPC). Оптимизируя действия с просмотром вперед на основе точной модели мира, MPC значительно улучшает эффективность исследования и обучения. По сравнению с существующими агентами LLM, рассуждения WALL-E требуют лишь нескольких основных правил, а не многословных буферизированных траекторий, включенных во вход LLM. На вызовах в открытом мире в Minecraft и ALFWorld WALL-E достигает более высоких показателей успеха, чем существующие методы, с более низкими затратами на время перепланирования и количество использованных токенов для рассуждений. В Minecraft WALL-E превосходит базовые значения на 15-30% в показателях успеха, при этом требуя на 8-20 меньше раундов перепланирования и всего лишь 60-80% токенов. В ALFWorld его показатель успеха взлетает до нового рекордного значения 95% уже после 6 итераций.