ChatPaper.aiChatPaper

AgentOhana: Projetando um Pipeline Unificado de Dados e Treinamento para Aprendizado Eficiente de Agentes

AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning

February 23, 2024
Autores: Jianguo Zhang, Tian Lan, Rithesh Murthy, Zhiwei Liu, Weiran Yao, Juntao Tan, Thai Hoang, Liangwei Yang, Yihao Feng, Zuxin Liu, Tulika Awalgaonkar, Juan Carlos Niebles, Silvio Savarese, Shelby Heinecke, Huan Wang, Caiming Xiong
cs.AI

Resumo

Agentes autônomos impulsionados por modelos de linguagem de grande escala (LLMs) têm atraído significativa atenção da pesquisa. No entanto, aproveitar plenamente o potencial dos LLMs para tarefas baseadas em agentes apresenta desafios inerentes devido à natureza heterogênea de diversas fontes de dados que apresentam trajetórias de múltiplos turnos. Neste artigo, introduzimos o AgentOhana como uma solução abrangente para abordar esses desafios. O AgentOhana agrega trajetórias de agentes de ambientes distintos, abrangendo uma ampla variedade de cenários. Ele padroniza e unifica meticulosamente essas trajetórias em um formato consistente, simplificando a criação de um carregador de dados genérico otimizado para o treinamento de agentes. Aproveitando a unificação dos dados, nosso pipeline de treinamento mantém o equilíbrio entre diferentes fontes de dados e preserva a aleatoriedade independente entre dispositivos durante a divisão do conjunto de dados e o treinamento do modelo. Além disso, apresentamos o xLAM-v0.1, um modelo de ação de grande escala projetado para agentes de IA, que demonstra desempenho excepcional em vários benchmarks.
English
Autonomous agents powered by large language models (LLMs) have garnered significant research attention. However, fully harnessing the potential of LLMs for agent-based tasks presents inherent challenges due to the heterogeneous nature of diverse data sources featuring multi-turn trajectories. In this paper, we introduce AgentOhana as a comprehensive solution to address these challenges. AgentOhana aggregates agent trajectories from distinct environments, spanning a wide array of scenarios. It meticulously standardizes and unifies these trajectories into a consistent format, streamlining the creation of a generic data loader optimized for agent training. Leveraging the data unification, our training pipeline maintains equilibrium across different data sources and preserves independent randomness across devices during dataset partitioning and model training. Additionally, we present xLAM-v0.1, a large action model tailored for AI agents, which demonstrates exceptional performance across various benchmarks.
PDF183December 15, 2024