ChatPaper.aiChatPaper

Report Tecnico UI-TARS-2: Avanzamento degli Agenti GUI con Apprendimento per Rinforzo Multi-Turn

UI-TARS-2 Technical Report: Advancing GUI Agent with Multi-Turn Reinforcement Learning

September 2, 2025
Autori: Haoming Wang, Haoyang Zou, Huatong Song, Jiazhan Feng, Junjie Fang, Junting Lu, Longxiang Liu, Qinyu Luo, Shihao Liang, Shijue Huang, Wanjun Zhong, Yining Ye, Yujia Qin, Yuwen Xiong, Yuxin Song, Zhiyong Wu, Bo Li, Chen Dun, Chong Liu, Fuxing Leng, Hanbin Wang, Hao Yu, Haobin Chen, Hongyi Guo, Jing Su, Jingjia Huang, Kai Shen, Kaiyu Shi, Lin Yan, Peiyao Zhao, Pengfei Liu, Qinghao Ye, Renjie Zheng, Wayne Xin Zhao, Wen Heng, Wenhao Huang, Wenqian Wang, Xiaobo Qin, Yi Lin, Youbin Wu, Zehui Chen, Zihao Wang, Baoquan Zhong, Xinchun Zhang, Xujing Li, Yuanfan Li, Zhongkai Zhao, Chengquan Jiang, Faming Wu, Haotian Zhou, Jinlin Pang, Li Han, Qianli Ma, Siyao Liu, Songhua Cai, Wenqi Fu, Xin Liu, Zhi Zhang, Bo Zhou, Guoliang Li, Jiajun Shi, Jiale Yang, Jie Tang, Li Li, Taoran Lu, Woyu Lin, Xiaokang Tong, Xinyao Li, Yichi Zhang, Yu Miao, Zhengxuan Jiang, Zili Li, Ziyuan Zhao, Chenxin Li, Dehua Ma, Feng Lin, Ge Zhang, Haihua Yang, Hangyu Guo, Hongda Zhu, Jiaheng Liu, Junda Du, Kai Cai, Kuanye Li, Lichen Yuan, Meilan Han, Minchao Wang, Shuyue Guo, Tianhao Cheng, Xiaobo Ma, Xiaojun Xiao, Xiaolong Huang, Xinjie Chen, Yidi Du, Yilin Chen, Yiwen Wang, Zhaojian Li, Zhenzhu Yang, Zhiyuan Zeng, Chaolin Jin, Chen Li, Hao Chen, Haoli Chen, Jian Chen, Qinghao Zhao, Guang Shi
cs.AI

Abstract

Lo sviluppo di agenti autonomi per interfacce grafiche utente (GUI) presenta sfide significative nell'ambito dell'intelligenza artificiale. Sebbene i recenti progressi nei modelli di agenti nativi abbiano mostrato promesse unificando percezione, ragionamento, azione e memoria attraverso l'apprendimento end-to-end, permangono problemi aperti riguardanti la scalabilità dei dati, l'apprendimento per rinforzo (RL) multi-turn, le limitazioni dell'operatività esclusiva su GUI e la stabilità dell'ambiente. In questo rapporto tecnico, presentiamo UI-TARS-2, un modello di agente nativo centrato sulle GUI che affronta queste sfide attraverso una metodologia di addestramento sistematica: un volano di dati per la generazione scalabile di dati, un framework RL multi-turn stabilizzato, un ambiente GUI ibrido che integra file system e terminali, e una piattaforma sandbox unificata per rollout su larga scala. La valutazione empirica dimostra che UI-TARS-2 ottiene miglioramenti significativi rispetto al suo predecessore UI-TARS-1.5. Su benchmark GUI, raggiunge 88.2 su Online-Mind2Web, 47.5 su OSWorld, 50.6 su WindowsAgentArena e 73.3 su AndroidWorld, superando baseline robusti come Claude e gli agenti OpenAI. In ambienti di gioco, ottiene un punteggio normalizzato medio di 59.8 su una suite di 15 giochi – circa il 60% delle prestazioni umane – e rimane competitivo con modelli proprietari all'avanguardia (ad esempio, OpenAI o3) su LMGame-Bench. Inoltre, il modello può generalizzare a compiti di ricerca di informazioni a lungo termine e benchmark di ingegneria del software, evidenziando la sua robustezza in diverse attività di agenti. Analisi dettagliate delle dinamiche di addestramento forniscono ulteriori approfondimenti su come raggiungere stabilità ed efficienza nell'RL su larga scala per agenti. Questi risultati sottolineano il potenziale di UI-TARS-2 di avanzare lo stato degli agenti GUI e di mostrare una forte generalizzazione a scenari interattivi del mondo reale.
English
The development of autonomous agents for graphical user interfaces (GUIs) presents major challenges in artificial intelligence. While recent advances in native agent models have shown promise by unifying perception, reasoning, action, and memory through end-to-end learning, open problems remain in data scalability, multi-turn reinforcement learning (RL), the limitations of GUI-only operation, and environment stability. In this technical report, we present UI-TARS-2, a native GUI-centered agent model that addresses these challenges through a systematic training methodology: a data flywheel for scalable data generation, a stabilized multi-turn RL framework, a hybrid GUI environment that integrates file systems and terminals, and a unified sandbox platform for large-scale rollouts. Empirical evaluation demonstrates that UI-TARS-2 achieves significant improvements over its predecessor UI-TARS-1.5. On GUI benchmarks, it reaches 88.2 on Online-Mind2Web, 47.5 on OSWorld, 50.6 on WindowsAgentArena, and 73.3 on AndroidWorld, outperforming strong baselines such as Claude and OpenAI agents. In game environments, it attains a mean normalized score of 59.8 across a 15-game suite-roughly 60% of human-level performance-and remains competitive with frontier proprietary models (e.g., OpenAI o3) on LMGame-Bench. Additionally, the model can generalize to long-horizon information-seeking tasks and software engineering benchmarks, highlighting its robustness across diverse agent tasks. Detailed analyses of training dynamics further provide insights into achieving stability and efficiency in large-scale agent RL. These results underscore UI-TARS-2's potential to advance the state of GUI agents and exhibit strong generalization to real-world interactive scenarios.
PDF1214September 3, 2025