EvoCUA: Evoluerende Computergebruik-Agents via Leren van Schaalbare Synthetische Ervaring
EvoCUA: Evolving Computer Use Agents via Learning from Scalable Synthetic Experience
January 22, 2026
Auteurs: Taofeng Xue, Chong Peng, Mianqiu Huang, Linsen Guo, Tiancheng Han, Haozhe Wang, Jianing Wang, Xiaocheng Zhang, Xin Yang, Dengchang Zhao, Jinrui Ding, Xiandi Ma, Yuchen Xie, Peng Pei, Xunliang Cai, Xipeng Qiu
cs.AI
Samenvatting
De ontwikkeling van native computergebruik-agenten (CUA) vertegenwoordigt een significante sprong voorwaarts in multimodale AI. Hun potentieel wordt echter momenteel beperkt door de constraints van statische data-schaling. Bestaande paradigma's die voornamelijk steunen op passieve imitatie van statische datasets, slagen er niet in de complexe causale dynamiek inherent aan langetermijn-computertaken te vangen. In dit werk introduceren we EvoCUA, een native computergebruik-agentmodel. In tegenstelling tot statische imitatie integreert EvoCUA datageneratie en beleidsoptimalisatie in een zichzelf in stand houdende evolutionaire cyclus. Om dataschaarste tegen te gaan, ontwikkelden we een verifieerbare synthese-engine die autonoom diverse taken genereert, gekoppeld aan uitvoerbare validators. Om grootschalige ervaringsverwerving mogelijk te maken, ontwierpen we een schaalbare infrastructuur die tienduizenden asynchrone sandbox-uitvoeringen orkestreert. Voortbouwend op deze massale trajecten stellen we een iteratieve evolutionaire leerstrategie voor om deze ervaring efficiënt te internaliseren. Dit mechanisme reguleert dynamisch beleidsupdates door capaciteitsgrenzen te identificeren – het versterkt succesvolle routines terwijl falende trajecten worden omgezet in rijke supervisie door foutenanalyse en zelfcorrectie. Empirische evaluaties op de OSWorld-benchmark tonen aan dat EvoCUA een slagingspercentage van 56,7% bereikt, waarmee een nieuwe open-source state-of-the-art wordt gevestigd. Opmerkelijk is dat EvoCUA aanzienlijk beter presteert dan het vorige beste open-source model, OpenCUA-72B (45,0%), en gesloten gewichtsmodellen zoals UI-TARS-2 (53,1%) overtreft. Cruciaal is dat onze resultaten de generaliseerbaarheid van deze aanpak onderstrepen: het evolutionaire paradigma, aangedreven door leren uit ervaring, levert consistente prestatieverbeteringen op bij foundation-modellen van uiteenlopende schaal, en vestigt zo een robuust en schaalbaar pad voor het verbeteren van native agent-capaciteiten.
English
The development of native computer-use agents (CUA) represents a significant leap in multimodal AI. However, their potential is currently bottlenecked by the constraints of static data scaling. Existing paradigms relying primarily on passive imitation of static datasets struggle to capture the intricate causal dynamics inherent in long-horizon computer tasks. In this work, we introduce EvoCUA, a native computer use agentic model. Unlike static imitation, EvoCUA integrates data generation and policy optimization into a self-sustaining evolutionary cycle. To mitigate data scarcity, we develop a verifiable synthesis engine that autonomously generates diverse tasks coupled with executable validators. To enable large-scale experience acquisition, we design a scalable infrastructure orchestrating tens of thousands of asynchronous sandbox rollouts. Building on these massive trajectories, we propose an iterative evolving learning strategy to efficiently internalize this experience. This mechanism dynamically regulates policy updates by identifying capability boundaries -- reinforcing successful routines while transforming failure trajectories into rich supervision through error analysis and self-correction. Empirical evaluations on the OSWorld benchmark demonstrate that EvoCUA achieves a success rate of 56.7%, establishing a new open-source state-of-the-art. Notably, EvoCUA significantly outperforms the previous best open-source model, OpenCUA-72B (45.0%), and surpasses leading closed-weights models such as UI-TARS-2 (53.1%). Crucially, our results underscore the generalizability of this approach: the evolving paradigm driven by learning from experience yields consistent performance gains across foundation models of varying scales, establishing a robust and scalable path for advancing native agent capabilities.