AgentOhana: Проектирование унифицированного конвейера данных и обучения для эффективного обучения агентов
AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning
February 23, 2024
Авторы: Jianguo Zhang, Tian Lan, Rithesh Murthy, Zhiwei Liu, Weiran Yao, Juntao Tan, Thai Hoang, Liangwei Yang, Yihao Feng, Zuxin Liu, Tulika Awalgaonkar, Juan Carlos Niebles, Silvio Savarese, Shelby Heinecke, Huan Wang, Caiming Xiong
cs.AI
Аннотация
Автономные агенты, основанные на больших языковых моделях (LLM), привлекают значительное внимание исследователей. Однако полное раскрытие потенциала LLM для задач, связанных с агентами, сопряжено с рядом сложностей, обусловленных разнородным характером различных источников данных, содержащих многошаговые траектории. В данной статье мы представляем AgentOhana как комплексное решение для преодоления этих трудностей. AgentOhana объединяет траектории агентов из различных сред, охватывая широкий спектр сценариев. Она тщательно стандартизирует и унифицирует эти траектории в единый формат, упрощая создание универсального загрузчика данных, оптимизированного для обучения агентов. Благодаря унификации данных, наш обучающий конвейер поддерживает баланс между различными источниками данных и сохраняет независимую случайность при разделении наборов данных и обучении моделей на разных устройствах. Кроме того, мы представляем xLAM-v0.1 — крупную модель действий, разработанную специально для ИИ-агентов, которая демонстрирует выдающуюся производительность на различных тестовых наборах.
English
Autonomous agents powered by large language models (LLMs) have garnered
significant research attention. However, fully harnessing the potential of LLMs
for agent-based tasks presents inherent challenges due to the heterogeneous
nature of diverse data sources featuring multi-turn trajectories. In this
paper, we introduce AgentOhana as a comprehensive solution to address
these challenges. AgentOhana aggregates agent trajectories from
distinct environments, spanning a wide array of scenarios. It meticulously
standardizes and unifies these trajectories into a consistent format,
streamlining the creation of a generic data loader optimized for agent
training. Leveraging the data unification, our training pipeline maintains
equilibrium across different data sources and preserves independent randomness
across devices during dataset partitioning and model training. Additionally, we
present xLAM-v0.1, a large action model tailored for AI agents, which
demonstrates exceptional performance across various benchmarks.