ChatPaper.aiChatPaper

Rapporto Tecnico di Step-GUI

Step-GUI Technical Report

December 17, 2025
Autori: Haolong Yan, Jia Wang, Xin Huang, Yeqing Shen, Ziyang Meng, Zhimin Fan, Kaijun Tan, Jin Gao, Lieyu Shi, Mi Yang, Shiliang Yang, Zhirui Wang, Brian Li, Kang An, Chenyang Li, Lei Lei, Mengmeng Duan, Danxun Liang, Guodong Liu, Hang Cheng, Hao Wu, Jie Dong, Junhao Huang, Mei Chen, Renjie Yu, Shunshan Li, Xu Zhou, Yiting Dai, Yineng Deng, Yingdan Liang, Zelin Chen, Wen Sun, Chengxu Yan, Chunqin Xu, Dong Li, Fengqiong Xiao, Guanghao Fan, Guopeng Li, Guozhen Peng, Hongbing Li, Hang Li, Hongming Chen, Jingjing Xie, Jianyong Li, Jingyang Zhang, Jiaju Ren, Jiayu Yuan, Jianpeng Yin, Kai Cao, Liang Zhao, Liguo Tan, Liying Shi, Mengqiang Ren, Min Xu, Manjiao Liu, Mao Luo, Mingxin Wan, Na Wang, Nan Wu, Ning Wang, Peiyao Ma, Qingzhou Zhang, Qiao Wang, Qinlin Zeng, Qiong Gao, Qiongyao Li, Shangwu Zhong, Shuli Gao, Shaofan Liu, Shisi Gao, Shuang Luo, Xingbin Liu, Xiaojia Liu, Xiaojie Hou, Xin Liu, Xuanti Feng, Xuedan Cai, Xuan Wen, Xianwei Zhu, Xin Liang, Xin Liu, Xin Zhou, Yingxiu Zhao, Yukang Shi, Yunfang Xu, Yuqing Zeng, Yixun Zhang, Zejia Weng, Zhonghao Yan, Zhiguo Huang, Zhuoyu Wang, Zheng Ge, Jing Li, Yibo Zhu, Binxing Jiao, Xiangyu Zhang, Daxin Jiang
cs.AI

Abstract

I recenti progressi nei modelli linguistici multimodali di grandi dimensioni sbloccano opportunità senza precedenti per l'automazione delle interfacce grafiche (GUI). Tuttavia, rimane una sfida fondamentale: come acquisire efficientemente dati di addestramento di alta qualità mantenendo l'affidabilità delle annotazioni? Introduciamo una pipeline di addestramento auto-evolutiva alimentata dal Calibrated Step Reward System, che converte le traiettorie generate dal modello in segnali di addestramento affidabili attraverso una calibrazione a livello di traiettoria, raggiungendo un'accuratezza di annotazione >90% con un costo 10-100 volte inferiore. Sfruttando questa pipeline, presentiamo Step-GUI, una famiglia di modelli (4B/8B) che raggiunge prestazioni all'avanguardia nelle GUI (8B: 80.2% AndroidWorld, 48.5% OSWorld, 62.6% ScreenShot-Pro) mantenendo solide capacità generali. Mentre le capacità degli agenti GUI migliorano, la distribuzione pratica richiede interfacce standardizzate su dispositivi eterogenei proteggendo al contempo la privacy dell'utente. A tal fine, proponiamo GUI-MCP, il primo Model Context Protocol per l'automazione GUI con un'architettura gerarchica che combina operazioni atomiche di basso livello e la delega di compiti di alto livello a modelli specialistici locali, abilitando un'esecuzione ad alta privacy in cui i dati sensibili rimangono sul dispositivo. Infine, per valutare se gli agenti possono gestire un utilizzo quotidiano autentico, introduciamo AndroidDaily, un benchmark basato su modelli di utilizzo mobile del mondo reale con 3146 azioni statiche e 235 task end-to-end in scenari quotidiani ad alta frequenza (8B: statiche 89.91%, end-to-end 52.50%). Il nostro lavoro avanza lo sviluppo di agenti GUI pratici e dimostra un forte potenziale per la distribuzione nel mondo reale nelle interazioni digitali quotidiane.
English
Recent advances in multimodal large language models unlock unprecedented opportunities for GUI automation. However, a fundamental challenge remains: how to efficiently acquire high-quality training data while maintaining annotation reliability? We introduce a self-evolving training pipeline powered by the Calibrated Step Reward System, which converts model-generated trajectories into reliable training signals through trajectory-level calibration, achieving >90% annotation accuracy with 10-100x lower cost. Leveraging this pipeline, we introduce Step-GUI, a family of models (4B/8B) that achieves state-of-the-art GUI performance (8B: 80.2% AndroidWorld, 48.5% OSWorld, 62.6% ScreenShot-Pro) while maintaining robust general capabilities. As GUI agent capabilities improve, practical deployment demands standardized interfaces across heterogeneous devices while protecting user privacy. To this end, we propose GUI-MCP, the first Model Context Protocol for GUI automation with hierarchical architecture that combines low-level atomic operations and high-level task delegation to local specialist models, enabling high-privacy execution where sensitive data stays on-device. Finally, to assess whether agents can handle authentic everyday usage, we introduce AndroidDaily, a benchmark grounded in real-world mobile usage patterns with 3146 static actions and 235 end-to-end tasks across high-frequency daily scenarios (8B: static 89.91%, end-to-end 52.50%). Our work advances the development of practical GUI agents and demonstrates strong potential for real-world deployment in everyday digital interactions.
PDF1132December 19, 2025