ActionStudio: Een lichtgewicht raamwerk voor data en training van grote actiemodellen
ActionStudio: A Lightweight Framework for Data and Training of Large Action Models
March 28, 2025
Auteurs: Jianguo Zhang, Thai Hoang, Ming Zhu, Zuxin Liu, Shiyu Wang, Tulika Awalgaonkar, Akshara Prabhakar, Haolin Chen, Weiran Yao, Zhiwei Liu, Juntao Tan, Juan Carlos Niebles, Shelby Heinecke, Huan Wang, Silvio Savarese, Caiming Xiong
cs.AI
Samenvatting
Actiemodellen zijn essentieel om autonome agents in staat te stellen complexe taken uit te voeren. Het trainen van grote actiemodellen blijft echter een uitdaging vanwege de diversiteit van agentomgevingen en de complexiteit van agentgegevens. Ondanks de groeiende interesse biedt bestaande infrastructuur beperkte ondersteuning voor schaalbare, agentspecifieke fine-tuning. Wij presenteren ActionStudio, een lichtgewicht en uitbreidbaar data- en trainingsframework ontworpen voor grote actiemodellen. ActionStudio verenigt heterogene agenttrajecten via een gestandaardiseerd formaat, ondersteunt diverse trainingsparadigma's, waaronder LoRA, volledige fine-tuning en gedistribueerde opstellingen, en integreert robuuste preprocessing- en verificatietools. We valideren de effectiviteit ervan op zowel publieke als realistische industriebenchmarks, waarbij sterke prestaties en praktische schaalbaarheid worden aangetoond. We hebben de code en gegevens openbaar gemaakt op https://github.com/SalesforceAIResearch/xLAM om onderzoek in de gemeenschap te faciliteren.
English
Action models are essential for enabling autonomous agents to perform complex
tasks. However, training large action models remains challenging due to the
diversity of agent environments and the complexity of agentic data. Despite
growing interest, existing infrastructure provides limited support for
scalable, agent-specific fine-tuning. We present ActionStudio, a lightweight
and extensible data and training framework designed for large action models.
ActionStudio unifies heterogeneous agent trajectories through a standardized
format, supports diverse training paradigms including LoRA, full fine-tuning,
and distributed setups, and integrates robust preprocessing and verification
tools. We validate its effectiveness across both public and realistic industry
benchmarks, demonstrating strong performance and practical scalability. We
open-sourced code and data at https://github.com/SalesforceAIResearch/xLAM to
facilitate research in the community.Summary
AI-Generated Summary