ChatPaper.aiChatPaper

Rapport Technique de Step-GUI

Step-GUI Technical Report

December 17, 2025
papers.authors: Haolong Yan, Jia Wang, Xin Huang, Yeqing Shen, Ziyang Meng, Zhimin Fan, Kaijun Tan, Jin Gao, Lieyu Shi, Mi Yang, Shiliang Yang, Zhirui Wang, Brian Li, Kang An, Chenyang Li, Lei Lei, Mengmeng Duan, Danxun Liang, Guodong Liu, Hang Cheng, Hao Wu, Jie Dong, Junhao Huang, Mei Chen, Renjie Yu, Shunshan Li, Xu Zhou, Yiting Dai, Yineng Deng, Yingdan Liang, Zelin Chen, Wen Sun, Chengxu Yan, Chunqin Xu, Dong Li, Fengqiong Xiao, Guanghao Fan, Guopeng Li, Guozhen Peng, Hongbing Li, Hang Li, Hongming Chen, Jingjing Xie, Jianyong Li, Jingyang Zhang, Jiaju Ren, Jiayu Yuan, Jianpeng Yin, Kai Cao, Liang Zhao, Liguo Tan, Liying Shi, Mengqiang Ren, Min Xu, Manjiao Liu, Mao Luo, Mingxin Wan, Na Wang, Nan Wu, Ning Wang, Peiyao Ma, Qingzhou Zhang, Qiao Wang, Qinlin Zeng, Qiong Gao, Qiongyao Li, Shangwu Zhong, Shuli Gao, Shaofan Liu, Shisi Gao, Shuang Luo, Xingbin Liu, Xiaojia Liu, Xiaojie Hou, Xin Liu, Xuanti Feng, Xuedan Cai, Xuan Wen, Xianwei Zhu, Xin Liang, Xin Liu, Xin Zhou, Yingxiu Zhao, Yukang Shi, Yunfang Xu, Yuqing Zeng, Yixun Zhang, Zejia Weng, Zhonghao Yan, Zhiguo Huang, Zhuoyu Wang, Zheng Ge, Jing Li, Yibo Zhu, Binxing Jiao, Xiangyu Zhang, Daxin Jiang
cs.AI

papers.abstract

Les récentes avancées des modèles de langage multimodaux ouvrent des perspectives inédites pour l'automatisation des interfaces graphiques. Cependant, un défi fondamental persiste : comment acquérir efficacement des données d'entraînement de haute qualité tout en garantissant la fiabilité des annotations ? Nous présentons un pipeline d'entraînement auto-évolutif propulsé par le Système de Récompense Étalonné par Étapes, qui transforme les trajectoires générées par le modèle en signaux d'entraînement fiables grâce à un étalonnage au niveau trajectoire, atteignant une précision d'annotation >90 % pour un coût 10 à 100 fois inférieur. En capitalisant sur ce pipeline, nous présentons Step-GUI, une famille de modèles (4B/8B) qui obtient des performances de pointe sur les interfaces graphiques (8B : 80,2 % AndroidWorld, 48,5 % OSWorld, 62,6 % ScreenShot-Pro) tout en conservant des capacités générales robustes. Alors que les capacités des agents d'interface graphique s'améliorent, leur déploiement pratique exige des interfaces standardisées sur des appareils hétérogènes tout en protégeant la vie privée des utilisateurs. À cette fin, nous proposons GUI-MCP, le premier Protocole de Contexte de Modèle dédié à l'automatisation des interfaces graphiques, doté d'une architecture hiérarchique combinant des opérations atomiques de bas niveau et une délégation de tâches de haut niveau à des modèles spécialisés locaux, permettant une exécution à haute confidentialité où les données sensibles restent sur l'appareil. Enfin, pour évaluer si les agents peuvent gérer des usages quotidiens authentiques, nous introduisons AndroidDaily, un benchmark ancré dans des schémas d'utilisation mobiles réels comprenant 3146 actions statiques et 235 tâches de bout en bout couvrant des scénarios quotidiens à haute fréquence (8B : statique 89,91 %, bout en bout 52,50 %). Notre travail fait progresser le développement d'agents d'interface graphique pratiques et démontre un fort potentiel de déploiement réel dans les interactions numériques quotidiennes.
English
Recent advances in multimodal large language models unlock unprecedented opportunities for GUI automation. However, a fundamental challenge remains: how to efficiently acquire high-quality training data while maintaining annotation reliability? We introduce a self-evolving training pipeline powered by the Calibrated Step Reward System, which converts model-generated trajectories into reliable training signals through trajectory-level calibration, achieving >90% annotation accuracy with 10-100x lower cost. Leveraging this pipeline, we introduce Step-GUI, a family of models (4B/8B) that achieves state-of-the-art GUI performance (8B: 80.2% AndroidWorld, 48.5% OSWorld, 62.6% ScreenShot-Pro) while maintaining robust general capabilities. As GUI agent capabilities improve, practical deployment demands standardized interfaces across heterogeneous devices while protecting user privacy. To this end, we propose GUI-MCP, the first Model Context Protocol for GUI automation with hierarchical architecture that combines low-level atomic operations and high-level task delegation to local specialist models, enabling high-privacy execution where sensitive data stays on-device. Finally, to assess whether agents can handle authentic everyday usage, we introduce AndroidDaily, a benchmark grounded in real-world mobile usage patterns with 3146 static actions and 235 end-to-end tasks across high-frequency daily scenarios (8B: static 89.91%, end-to-end 52.50%). Our work advances the development of practical GUI agents and demonstrates strong potential for real-world deployment in everyday digital interactions.
PDF1132December 19, 2025