AWorld: Организация рецепта обучения агентного ИИ
AWorld: Orchestrating the Training Recipe for Agentic AI
August 28, 2025
Авторы: Chengyue Yu, Siyuan Lu, Chenyi Zhuang, Dong Wang, Qintong Wu, Zongyue Li, Runsheng Gan, Chunfeng Wang, Siqi Hou, Gaochi Huang, Wenlong Yan, Lifeng Hong, Aohui Xue, Yanfeng Wang, Jinjie Gu, David Tsai, Tao Lin
cs.AI
Аннотация
Парадигма обучения на практике имеет решающее значение для разработки эффективных агентных систем ИИ, однако она серьезно ограничивается неэффективным процессом генерации опыта, что особенно заметно в сложных тестах, таких как GAIA. Для решения этой проблемы мы представляем AWorld — открытую систему, разработанную для масштабируемого взаимодействия агента со средой. Распределяя задачи по кластеру, AWorld ускоряет сбор опыта в 14,6 раз по сравнению с традиционным последовательным выполнением на одном узле. Это критическое ускорение делает масштабное обучение с подкреплением практичным и масштабируемым. Используя эту возможность, мы обучили агента на основе модели Qwen3-32B, который значительно превосходит базовую модель, увеличив общую точность на GAIA с 21,59% до 32,23%. На наиболее сложных уровнях теста наш агент достигает результата 16,33%, превосходя производительность ведущих проприетарных моделей. Наша открытая система и полученный агент предоставляют практическую основу для полного конвейера обучения агентных систем ИИ — от эффективного взаимодействия до демонстрируемого улучшения модели.
English
The learning from practice paradigm is crucial for developing capable Agentic
AI systems, yet it is severely hampered by inefficient experience generation, a
bottleneck especially pronounced in complex benchmarks like GAIA. To address
this, we introduce AWorld, an open-source system engineered for large-scale
agent-environment interaction. By distributing tasks across a cluster, AWorld
accelerates experience collection by 14.6x compared to standard single-node,
sequential execution. This critical speedup makes extensive reinforcement
learning practical and scalable. Leveraging this capability, we trained a
Qwen3-32B-based agent that significantly outperforms its base model, increasing
its overall GAIA accuracy from 21.59% to 32.23%. On the benchmark's most
challenging levels, our agent achieves a score of 16.33%, surpassing the
performance of leading proprietary models. Our open-source system and resulting
agent provide a practical blueprint for a complete agentic AI training
pipeline, from efficient interaction to demonstrable model improvement.