ChatPaper.aiChatPaper

AgentOhana: Ontwerp van een Geünificeerde Data- en Trainingspijplijn voor Effectief Agentleren

AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning

February 23, 2024
Auteurs: Jianguo Zhang, Tian Lan, Rithesh Murthy, Zhiwei Liu, Weiran Yao, Juntao Tan, Thai Hoang, Liangwei Yang, Yihao Feng, Zuxin Liu, Tulika Awalgaonkar, Juan Carlos Niebles, Silvio Savarese, Shelby Heinecke, Huan Wang, Caiming Xiong
cs.AI

Samenvatting

Autonome agents aangedreven door grote taalmodellen (LLMs) hebben aanzienlijke onderzoeksaandacht gekregen. Het volledig benutten van het potentieel van LLMs voor agent-gebaseerde taken brengt echter inherente uitdagingen met zich mee vanwege de heterogene aard van diverse gegevensbronnen met multi-turn trajecten. In dit artikel introduceren we AgentOhana als een uitgebreide oplossing om deze uitdagingen aan te pakken. AgentOhana aggregeert agenttrajecten uit verschillende omgevingen, die een breed scala aan scenario's bestrijken. Het standaardiseert en verenigt deze trajecten zorgvuldig in een consistent formaat, wat het creëren van een generieke gegevenslader optimaliseert voor agenttraining. Door gebruik te maken van de gegevensunificatie, handhaaft onze trainingspijplijn een evenwicht tussen verschillende gegevensbronnen en behoudt het onafhankelijke willekeurigheid over apparaten tijdens datasetpartitie en modeltraining. Daarnaast presenteren we xLAM-v0.1, een groot actiemodel speciaal ontworpen voor AI-agents, dat uitzonderlijke prestaties laat zien op diverse benchmarks.
English
Autonomous agents powered by large language models (LLMs) have garnered significant research attention. However, fully harnessing the potential of LLMs for agent-based tasks presents inherent challenges due to the heterogeneous nature of diverse data sources featuring multi-turn trajectories. In this paper, we introduce AgentOhana as a comprehensive solution to address these challenges. AgentOhana aggregates agent trajectories from distinct environments, spanning a wide array of scenarios. It meticulously standardizes and unifies these trajectories into a consistent format, streamlining the creation of a generic data loader optimized for agent training. Leveraging the data unification, our training pipeline maintains equilibrium across different data sources and preserves independent randomness across devices during dataset partitioning and model training. Additionally, we present xLAM-v0.1, a large action model tailored for AI agents, which demonstrates exceptional performance across various benchmarks.
PDF183December 15, 2024