ChatPaper.aiChatPaper

EvoCUA: Эволюция агентов компьютерного использования через обучение на масштабируемом синтетическом опыте

EvoCUA: Evolving Computer Use Agents via Learning from Scalable Synthetic Experience

January 22, 2026
Авторы: Taofeng Xue, Chong Peng, Mianqiu Huang, Linsen Guo, Tiancheng Han, Haozhe Wang, Jianing Wang, Xiaocheng Zhang, Xin Yang, Dengchang Zhao, Jinrui Ding, Xiandi Ma, Yuchen Xie, Peng Pei, Xunliang Cai, Xipeng Qiu
cs.AI

Аннотация

Разработка нативных компьютерных агентов (CUA) представляет собой значительный скачок в развитии мультимодального ИИ. Однако их потенциал в настоящее время ограничен узким местом, связанным с масштабированием статических данных. Существующие парадигмы, опирающиеся в основном на пассивное подражание статическим наборам данных, не способны уловить сложные причинно-следственные динамики, присущие долгосрочным компьютерным задачам. В данной работе мы представляем EvoCUA, нативную агентскую модель для работы с компьютером. В отличие от статического подражания, EvoCUA интегрирует генерацию данных и оптимизацию политики в самоподдерживающийся эволюционный цикл. Для преодоления нехватки данных мы разработали верифицируемый синтезатор, который автономно генерирует разнообразные задачи вместе с исполняемыми валидаторами. Для обеспечения масштабируемого приобретения опыта мы создали инфраструктуру, координирующую десятки тысяч асинхронных прогонов в песочницах. На основе этих масштабных траекторий мы предлагаем итеративную эволюционную стратегию обучения для эффективного усвоения этого опыта. Этот механизм динамически регулирует обновления политики, выявляя границы возможностей — закрепляя успешные сценарии и преобразуя траектории неудач в богатый supervisory сигнал посредством анализа ошибок и самокоррекции. Эмпирические оценки на бенчмарке OSWorld показывают, что EvoCUA достигает показателя успешности 56.7%, устанавливая новый рекорд для открытых моделей. Примечательно, что EvoCUA значительно превосходит предыдущую лучшую открытую модель OpenCUA-72B (45.0%) и опережает ведущие модели с закрытыми весами, такие как UI-TARS-2 (53.1%). Ключевым является то, что наши результаты подчеркивают обобщаемость подхода: эволюционная парадигма, движимая обучением на опыте, обеспечивает стабильное улучшение производительности для базовых моделей различного масштаба, прокладывая надежный и масштабируемый путь для развития возможностей нативных агентов.
English
The development of native computer-use agents (CUA) represents a significant leap in multimodal AI. However, their potential is currently bottlenecked by the constraints of static data scaling. Existing paradigms relying primarily on passive imitation of static datasets struggle to capture the intricate causal dynamics inherent in long-horizon computer tasks. In this work, we introduce EvoCUA, a native computer use agentic model. Unlike static imitation, EvoCUA integrates data generation and policy optimization into a self-sustaining evolutionary cycle. To mitigate data scarcity, we develop a verifiable synthesis engine that autonomously generates diverse tasks coupled with executable validators. To enable large-scale experience acquisition, we design a scalable infrastructure orchestrating tens of thousands of asynchronous sandbox rollouts. Building on these massive trajectories, we propose an iterative evolving learning strategy to efficiently internalize this experience. This mechanism dynamically regulates policy updates by identifying capability boundaries -- reinforcing successful routines while transforming failure trajectories into rich supervision through error analysis and self-correction. Empirical evaluations on the OSWorld benchmark demonstrate that EvoCUA achieves a success rate of 56.7%, establishing a new open-source state-of-the-art. Notably, EvoCUA significantly outperforms the previous best open-source model, OpenCUA-72B (45.0%), and surpasses leading closed-weights models such as UI-TARS-2 (53.1%). Crucially, our results underscore the generalizability of this approach: the evolving paradigm driven by learning from experience yields consistent performance gains across foundation models of varying scales, establishing a robust and scalable path for advancing native agent capabilities.
PDF621January 24, 2026