ChatPaper.aiChatPaper

Retroformer: Ретроспективные крупные языковые агенты с оптимизацией методом градиента политики

Retroformer: Retrospective Large Language Agents with Policy Gradient Optimization

August 4, 2023
Авторы: Weiran Yao, Shelby Heinecke, Juan Carlos Niebles, Zhiwei Liu, Yihao Feng, Le Xue, Rithesh Murthy, Zeyuan Chen, Jianguo Zhang, Devansh Arpit, Ran Xu, Phil Mui, Huan Wang, Caiming Xiong, Silvio Savarese
cs.AI

Аннотация

В последние месяцы наблюдается появление мощного нового тренда, в рамках которого крупные языковые модели (LLM) дополняются для превращения в автономные языковые агенты, способные самостоятельно выполнять многошаговые задачи, ориентированные на достижение целей, а не просто отвечать на запросы пользователей. Однако большинство существующих языковых агентов не оптимизируются с использованием вознаграждений, специфичных для среды. Хотя некоторые агенты позволяют итеративно улучшать результаты через вербальную обратную связь, они не рассуждают и не планируют способами, совместимыми с градиентным обучением на основе вознаграждений. В данной статье представлена принципиальная структура для усиления крупных языковых агентов путем обучения ретроспективной модели, которая автоматически настраивает подсказки для языкового агента на основе обратной связи от среды через метод градиента политики. В частности, предлагаемая архитектура агента обучается на вознаграждениях в различных средах и задачах, чтобы тонко настраивать предварительно обученную языковую модель, которая уточняет подсказку для агента, суммируя корневые причины предыдущих неудачных попыток и предлагая планы действий. Экспериментальные результаты на различных задачах показывают, что языковые агенты со временем улучшаются, и наш подход значительно превосходит базовые методы, которые не используют градиенты из среды должным образом. Это демонстрирует, что использование оптимизации градиента политики для улучшения языковых агентов, что, как мы считаем, является одним из первых примеров в нашей работе, выглядит перспективным и может быть применено для оптимизации других моделей в архитектуре агента с целью повышения их производительности со временем.
English
Recent months have seen the emergence of a powerful new trend in which large language models (LLMs) are augmented to become autonomous language agents capable of performing objective oriented multi-step tasks on their own, rather than merely responding to queries from human users. Most existing language agents, however, are not optimized using environment-specific rewards. Although some agents enable iterative refinement through verbal feedback, they do not reason and plan in ways that are compatible with gradient-based learning from rewards. This paper introduces a principled framework for reinforcing large language agents by learning a retrospective model, which automatically tunes the language agent prompts from environment feedback through policy gradient. Specifically, our proposed agent architecture learns from rewards across multiple environments and tasks, for fine-tuning a pre-trained language model which refines the language agent prompt by summarizing the root cause of prior failed attempts and proposing action plans. Experimental results on various tasks demonstrate that the language agents improve over time and that our approach considerably outperforms baselines that do not properly leverage gradients from the environment. This demonstrates that using policy gradient optimization to improve language agents, for which we believe our work is one of the first, seems promising and can be applied to optimize other models in the agent architecture to enhance agent performances over time.
PDF201December 15, 2024