ChatPaper.aiChatPaper

AgentGym: Evolução de Agentes Baseados em Modelos de Linguagem de Grande Escala em Ambientes Diversos

AgentGym: Evolving Large Language Model-based Agents across Diverse Environments

June 6, 2024
Autores: Zhiheng Xi, Yiwen Ding, Wenxiang Chen, Boyang Hong, Honglin Guo, Junzhe Wang, Dingwen Yang, Chenyang Liao, Xin Guo, Wei He, Songyang Gao, Lu Chen, Rui Zheng, Yicheng Zou, Tao Gui, Qi Zhang, Xipeng Qiu, Xuanjing Huang, Zuxuan Wu, Yu-Gang Jiang
cs.AI

Resumo

Construir agentes generalistas capazes de lidar com tarefas diversas e evoluir em diferentes ambientes é um objetivo de longo prazo na comunidade de IA. Modelos de linguagem de grande escala (LLMs) são considerados uma base promissora para construir tais agentes devido às suas capacidades generalizadas. As abordagens atuais ou fazem com que agentes baseados em LLM imitem trajetórias fornecidas por especialistas passo a passo, exigindo supervisão humana, o que é difícil de escalar e limita a exploração ambiental; ou permitem que os agentes explorem e aprendam em ambientes isolados, resultando em agentes especialistas com generalização limitada. Neste artigo, damos o primeiro passo em direção à construção de agentes baseados em LLM com capacidade geral e habilidade de auto-evolução. Identificamos uma tríade de ingredientes: 1) ambientes diversos para exploração e aprendizado do agente, 2) um conjunto de trajetórias para equipar os agentes com capacidades básicas e conhecimento prévio, e 3) um método de evolução eficaz e escalável. Propomos o AgentGym, um novo framework que apresenta uma variedade de ambientes e tarefas para exploração ampla, em tempo real, em formato único e concorrente do agente. O AgentGym também inclui um banco de dados com instruções expandidas, um conjunto de benchmarks e trajetórias de alta qualidade em diversos ambientes. Em seguida, propomos um novo método, o AgentEvol, para investigar o potencial de auto-evolução do agente além dos dados previamente vistos em tarefas e ambientes. Os resultados experimentais mostram que os agentes evoluídos podem alcançar resultados comparáveis aos modelos SOTA. Disponibilizamos o conjunto AgentGym, incluindo a plataforma, conjunto de dados, benchmark, checkpoints e implementações de algoritmos. O conjunto AgentGym está disponível em https://github.com/WooooDyy/AgentGym.
English
Building generalist agents that can handle diverse tasks and evolve themselves across different environments is a long-term goal in the AI community. Large language models (LLMs) are considered a promising foundation to build such agents due to their generalized capabilities. Current approaches either have LLM-based agents imitate expert-provided trajectories step-by-step, requiring human supervision, which is hard to scale and limits environmental exploration; or they let agents explore and learn in isolated environments, resulting in specialist agents with limited generalization. In this paper, we take the first step towards building generally-capable LLM-based agents with self-evolution ability. We identify a trinity of ingredients: 1) diverse environments for agent exploration and learning, 2) a trajectory set to equip agents with basic capabilities and prior knowledge, and 3) an effective and scalable evolution method. We propose AgentGym, a new framework featuring a variety of environments and tasks for broad, real-time, uni-format, and concurrent agent exploration. AgentGym also includes a database with expanded instructions, a benchmark suite, and high-quality trajectories across environments. Next, we propose a novel method, AgentEvol, to investigate the potential of agent self-evolution beyond previously seen data across tasks and environments. Experimental results show that the evolved agents can achieve results comparable to SOTA models. We release the AgentGym suite, including the platform, dataset, benchmark, checkpoints, and algorithm implementations. The AgentGym suite is available on https://github.com/WooooDyy/AgentGym.
PDF231December 8, 2024