AgentOhana: Progettazione di una Pipeline Unificata per Dati e Addestramento per un Apprendimento Efficace degli Agenti
AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning
February 23, 2024
Autori: Jianguo Zhang, Tian Lan, Rithesh Murthy, Zhiwei Liu, Weiran Yao, Juntao Tan, Thai Hoang, Liangwei Yang, Yihao Feng, Zuxin Liu, Tulika Awalgaonkar, Juan Carlos Niebles, Silvio Savarese, Shelby Heinecke, Huan Wang, Caiming Xiong
cs.AI
Abstract
Gli agenti autonomi potenziati da modelli linguistici di grandi dimensioni (LLM) hanno attirato un'attenzione significativa nella ricerca. Tuttavia, sfruttare appieno il potenziale degli LLM per compiti basati su agenti presenta sfide intrinseche a causa della natura eterogenea delle diverse fonti di dati che presentano traiettorie multi-turn. In questo articolo, introduciamo AgentOhana come una soluzione completa per affrontare queste sfide. AgentOhana aggrega le traiettorie degli agenti da ambienti distinti, coprendo una vasta gamma di scenari. Meticolosamente standardizza e unifica queste traiettorie in un formato coerente, semplificando la creazione di un caricatore di dati generico ottimizzato per l'addestramento degli agenti. Sfruttando l'unificazione dei dati, la nostra pipeline di addestramento mantiene un equilibrio tra le diverse fonti di dati e preserva la casualità indipendente tra i dispositivi durante la partizione del dataset e l'addestramento del modello. Inoltre, presentiamo xLAM-v0.1, un modello di azione di grandi dimensioni progettato per agenti AI, che dimostra prestazioni eccezionali su vari benchmark.
English
Autonomous agents powered by large language models (LLMs) have garnered
significant research attention. However, fully harnessing the potential of LLMs
for agent-based tasks presents inherent challenges due to the heterogeneous
nature of diverse data sources featuring multi-turn trajectories. In this
paper, we introduce AgentOhana as a comprehensive solution to address
these challenges. AgentOhana aggregates agent trajectories from
distinct environments, spanning a wide array of scenarios. It meticulously
standardizes and unifies these trajectories into a consistent format,
streamlining the creation of a generic data loader optimized for agent
training. Leveraging the data unification, our training pipeline maintains
equilibrium across different data sources and preserves independent randomness
across devices during dataset partitioning and model training. Additionally, we
present xLAM-v0.1, a large action model tailored for AI agents, which
demonstrates exceptional performance across various benchmarks.