ActionStudio: Un Marco Ligero para Datos y Entrenamiento de Modelos de Acción a Gran Escala
ActionStudio: A Lightweight Framework for Data and Training of Large Action Models
March 28, 2025
Autores: Jianguo Zhang, Thai Hoang, Ming Zhu, Zuxin Liu, Shiyu Wang, Tulika Awalgaonkar, Akshara Prabhakar, Haolin Chen, Weiran Yao, Zhiwei Liu, Juntao Tan, Juan Carlos Niebles, Shelby Heinecke, Huan Wang, Silvio Savarese, Caiming Xiong
cs.AI
Resumen
Los modelos de acción son esenciales para permitir que los agentes autónomos realicen tareas complejas. Sin embargo, entrenar modelos de acción de gran escala sigue siendo un desafío debido a la diversidad de entornos de los agentes y la complejidad de los datos agenticos. A pesar del creciente interés, la infraestructura existente ofrece un soporte limitado para el ajuste fino escalable y específico para agentes. Presentamos ActionStudio, un marco de datos y entrenamiento ligero y extensible diseñado para modelos de acción de gran escala. ActionStudio unifica trayectorias heterogéneas de agentes a través de un formato estandarizado, soporta diversos paradigmas de entrenamiento, incluyendo LoRA, ajuste fino completo y configuraciones distribuidas, e integra herramientas robustas de preprocesamiento y verificación. Validamos su efectividad en benchmarks públicos y realistas de la industria, demostrando un rendimiento sólido y una escalabilidad práctica. Hemos liberado el código y los datos en https://github.com/SalesforceAIResearch/xLAM para facilitar la investigación en la comunidad.
English
Action models are essential for enabling autonomous agents to perform complex
tasks. However, training large action models remains challenging due to the
diversity of agent environments and the complexity of agentic data. Despite
growing interest, existing infrastructure provides limited support for
scalable, agent-specific fine-tuning. We present ActionStudio, a lightweight
and extensible data and training framework designed for large action models.
ActionStudio unifies heterogeneous agent trajectories through a standardized
format, supports diverse training paradigms including LoRA, full fine-tuning,
and distributed setups, and integrates robust preprocessing and verification
tools. We validate its effectiveness across both public and realistic industry
benchmarks, demonstrating strong performance and practical scalability. We
open-sourced code and data at https://github.com/SalesforceAIResearch/xLAM to
facilitate research in the community.Summary
AI-Generated Summary