ChatPaper.aiChatPaper

AWorld: Организация рецепта обучения агентного ИИ

AWorld: Orchestrating the Training Recipe for Agentic AI

August 28, 2025
Авторы: Chengyue Yu, Siyuan Lu, Chenyi Zhuang, Dong Wang, Qintong Wu, Zongyue Li, Runsheng Gan, Chunfeng Wang, Siqi Hou, Gaochi Huang, Wenlong Yan, Lifeng Hong, Aohui Xue, Yanfeng Wang, Jinjie Gu, David Tsai, Tao Lin
cs.AI

Аннотация

Парадигма обучения на практике имеет решающее значение для разработки эффективных агентных систем ИИ, однако она серьезно ограничивается неэффективным процессом генерации опыта, что особенно заметно в сложных тестах, таких как GAIA. Для решения этой проблемы мы представляем AWorld — открытую систему, разработанную для масштабируемого взаимодействия агента со средой. Распределяя задачи по кластеру, AWorld ускоряет сбор опыта в 14,6 раз по сравнению с традиционным последовательным выполнением на одном узле. Это критическое ускорение делает масштабное обучение с подкреплением практичным и масштабируемым. Используя эту возможность, мы обучили агента на основе модели Qwen3-32B, который значительно превосходит базовую модель, увеличив общую точность на GAIA с 21,59% до 32,23%. На наиболее сложных уровнях теста наш агент достигает результата 16,33%, превосходя производительность ведущих проприетарных моделей. Наша открытая система и полученный агент предоставляют практическую основу для полного конвейера обучения агентных систем ИИ — от эффективного взаимодействия до демонстрируемого улучшения модели.
English
The learning from practice paradigm is crucial for developing capable Agentic AI systems, yet it is severely hampered by inefficient experience generation, a bottleneck especially pronounced in complex benchmarks like GAIA. To address this, we introduce AWorld, an open-source system engineered for large-scale agent-environment interaction. By distributing tasks across a cluster, AWorld accelerates experience collection by 14.6x compared to standard single-node, sequential execution. This critical speedup makes extensive reinforcement learning practical and scalable. Leveraging this capability, we trained a Qwen3-32B-based agent that significantly outperforms its base model, increasing its overall GAIA accuracy from 21.59% to 32.23%. On the benchmark's most challenging levels, our agent achieves a score of 16.33%, surpassing the performance of leading proprietary models. Our open-source system and resulting agent provide a practical blueprint for a complete agentic AI training pipeline, from efficient interaction to demonstrable model improvement.
PDF302August 29, 2025