ChatPaper.aiChatPaper

ActionStudio: Een lichtgewicht raamwerk voor data en training van grote actiemodellen

ActionStudio: A Lightweight Framework for Data and Training of Large Action Models

March 28, 2025
Auteurs: Jianguo Zhang, Thai Hoang, Ming Zhu, Zuxin Liu, Shiyu Wang, Tulika Awalgaonkar, Akshara Prabhakar, Haolin Chen, Weiran Yao, Zhiwei Liu, Juntao Tan, Juan Carlos Niebles, Shelby Heinecke, Huan Wang, Silvio Savarese, Caiming Xiong
cs.AI

Samenvatting

Actiemodellen zijn essentieel om autonome agents in staat te stellen complexe taken uit te voeren. Het trainen van grote actiemodellen blijft echter een uitdaging vanwege de diversiteit van agentomgevingen en de complexiteit van agentgegevens. Ondanks de groeiende interesse biedt bestaande infrastructuur beperkte ondersteuning voor schaalbare, agentspecifieke fine-tuning. Wij presenteren ActionStudio, een lichtgewicht en uitbreidbaar data- en trainingsframework ontworpen voor grote actiemodellen. ActionStudio verenigt heterogene agenttrajecten via een gestandaardiseerd formaat, ondersteunt diverse trainingsparadigma's, waaronder LoRA, volledige fine-tuning en gedistribueerde opstellingen, en integreert robuuste preprocessing- en verificatietools. We valideren de effectiviteit ervan op zowel publieke als realistische industriebenchmarks, waarbij sterke prestaties en praktische schaalbaarheid worden aangetoond. We hebben de code en gegevens openbaar gemaakt op https://github.com/SalesforceAIResearch/xLAM om onderzoek in de gemeenschap te faciliteren.
English
Action models are essential for enabling autonomous agents to perform complex tasks. However, training large action models remains challenging due to the diversity of agent environments and the complexity of agentic data. Despite growing interest, existing infrastructure provides limited support for scalable, agent-specific fine-tuning. We present ActionStudio, a lightweight and extensible data and training framework designed for large action models. ActionStudio unifies heterogeneous agent trajectories through a standardized format, supports diverse training paradigms including LoRA, full fine-tuning, and distributed setups, and integrates robust preprocessing and verification tools. We validate its effectiveness across both public and realistic industry benchmarks, demonstrating strong performance and practical scalability. We open-sourced code and data at https://github.com/SalesforceAIResearch/xLAM to facilitate research in the community.

Summary

AI-Generated Summary

PDF122April 1, 2025