AgentOhana: Projetando um Pipeline Unificado de Dados e Treinamento para Aprendizado Eficiente de Agentes
AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning
February 23, 2024
Autores: Jianguo Zhang, Tian Lan, Rithesh Murthy, Zhiwei Liu, Weiran Yao, Juntao Tan, Thai Hoang, Liangwei Yang, Yihao Feng, Zuxin Liu, Tulika Awalgaonkar, Juan Carlos Niebles, Silvio Savarese, Shelby Heinecke, Huan Wang, Caiming Xiong
cs.AI
Resumo
Agentes autônomos impulsionados por modelos de linguagem de grande escala (LLMs) têm atraído significativa atenção da pesquisa. No entanto, aproveitar plenamente o potencial dos LLMs para tarefas baseadas em agentes apresenta desafios inerentes devido à natureza heterogênea de diversas fontes de dados que apresentam trajetórias de múltiplos turnos. Neste artigo, introduzimos o AgentOhana como uma solução abrangente para abordar esses desafios. O AgentOhana agrega trajetórias de agentes de ambientes distintos, abrangendo uma ampla variedade de cenários. Ele padroniza e unifica meticulosamente essas trajetórias em um formato consistente, simplificando a criação de um carregador de dados genérico otimizado para o treinamento de agentes. Aproveitando a unificação dos dados, nosso pipeline de treinamento mantém o equilíbrio entre diferentes fontes de dados e preserva a aleatoriedade independente entre dispositivos durante a divisão do conjunto de dados e o treinamento do modelo. Além disso, apresentamos o xLAM-v0.1, um modelo de ação de grande escala projetado para agentes de IA, que demonstra desempenho excepcional em vários benchmarks.
English
Autonomous agents powered by large language models (LLMs) have garnered
significant research attention. However, fully harnessing the potential of LLMs
for agent-based tasks presents inherent challenges due to the heterogeneous
nature of diverse data sources featuring multi-turn trajectories. In this
paper, we introduce AgentOhana as a comprehensive solution to address
these challenges. AgentOhana aggregates agent trajectories from
distinct environments, spanning a wide array of scenarios. It meticulously
standardizes and unifies these trajectories into a consistent format,
streamlining the creation of a generic data loader optimized for agent
training. Leveraging the data unification, our training pipeline maintains
equilibrium across different data sources and preserves independent randomness
across devices during dataset partitioning and model training. Additionally, we
present xLAM-v0.1, a large action model tailored for AI agents, which
demonstrates exceptional performance across various benchmarks.