ChatPaper.aiChatPaper

ActionStudio: Um Framework Leve para Dados e Treinamento de Modelos de Ação em Grande Escala

ActionStudio: A Lightweight Framework for Data and Training of Large Action Models

March 28, 2025
Autores: Jianguo Zhang, Thai Hoang, Ming Zhu, Zuxin Liu, Shiyu Wang, Tulika Awalgaonkar, Akshara Prabhakar, Haolin Chen, Weiran Yao, Zhiwei Liu, Juntao Tan, Juan Carlos Niebles, Shelby Heinecke, Huan Wang, Silvio Savarese, Caiming Xiong
cs.AI

Resumo

Modelos de ação são essenciais para capacitar agentes autônomos a realizar tarefas complexas. No entanto, o treinamento de grandes modelos de ação continua desafiador devido à diversidade de ambientes de agentes e à complexidade dos dados agentivos. Apesar do crescente interesse, a infraestrutura existente oferece suporte limitado para ajuste fino escalável e específico para agentes. Apresentamos o ActionStudio, um framework leve e extensível de dados e treinamento projetado para grandes modelos de ação. O ActionStudio unifica trajetórias heterogêneas de agentes por meio de um formato padronizado, suporta diversos paradigmas de treinamento, incluindo LoRA, ajuste fino completo e configurações distribuídas, e integra ferramentas robustas de pré-processamento e verificação. Validamos sua eficácia em benchmarks públicos e realistas da indústria, demonstrando forte desempenho e escalabilidade prática. Disponibilizamos código e dados em https://github.com/SalesforceAIResearch/xLAM para facilitar a pesquisa na comunidade.
English
Action models are essential for enabling autonomous agents to perform complex tasks. However, training large action models remains challenging due to the diversity of agent environments and the complexity of agentic data. Despite growing interest, existing infrastructure provides limited support for scalable, agent-specific fine-tuning. We present ActionStudio, a lightweight and extensible data and training framework designed for large action models. ActionStudio unifies heterogeneous agent trajectories through a standardized format, supports diverse training paradigms including LoRA, full fine-tuning, and distributed setups, and integrates robust preprocessing and verification tools. We validate its effectiveness across both public and realistic industry benchmarks, demonstrating strong performance and practical scalability. We open-sourced code and data at https://github.com/SalesforceAIResearch/xLAM to facilitate research in the community.

Summary

AI-Generated Summary

PDF122April 1, 2025