Технический отчет UI-Venus: Создание высокопроизводительных UI-агентов с использованием RFT
UI-Venus Technical Report: Building High-performance UI Agents with RFT
August 14, 2025
Авторы: Zhangxuan Gu, Zhengwen Zeng, Zhenyu Xu, Xingran Zhou, Shuheng Shen, Yunfei Liu, Beitong Zhou, Changhua Meng, Tianyu Xia, Weizhi Chen, Yue Wen, Jingya Dou, Fei Tang, Jinzhen Lin, Yulin Liu, Zhenlin Guo, Yichen Gong, Heng Jia, Changlong Gao, Yuan Guo, Yong Deng, Zhenyu Guo, Liang Chen, Weiqiang Wang
cs.AI
Аннотация
Мы представляем UI-Venus, нативного UI-агента, который принимает на вход только скриншоты, основанного на мультимодальной большой языковой модели. UI-Venus достигает наилучших результатов (SOTA) как в задачах заземления UI, так и в задачах навигации, используя всего несколько сотен тысяч высококачественных обучающих образцов, благодаря тонкой настройке с подкреплением (RFT) на основе Qwen2.5-VL. В частности, варианты UI-Venus с 7B и 72B параметрами показывают результаты 94,1% / 50,8% и 95,3% / 61,9% на стандартных бенчмарках заземления, таких как Screenspot-V2 / Pro, превосходя предыдущие SOTA-модели, включая открытый GTA1 и закрытый UI-TARS-1.5. Чтобы продемонстрировать способность UI-Venus к обобщению и планированию, мы также оцениваем его на AndroidWorld, онлайн-арене для навигации по UI, где наши варианты с 7B и 72B параметрами достигают успеха в 49,1% и 65,9% случаев, также опережая существующие модели. Для достижения этих результатов мы вводим тщательно разработанные функции вознаграждения для задач заземления и навигации UI, а также соответствующие эффективные стратегии очистки данных. Для дальнейшего повышения производительности навигации мы предлагаем метод Self-Evolving Trajectory History Alignment & Sparse Action Enhancement, который уточняет исторические траектории рассуждений и балансирует распределение редких, но критически важных действий, что приводит к более согласованному планированию и лучшей обобщаемости в сложных UI-задачах. Наш вклад включает публикацию SOTA-моделей UI-агентов с открытым исходным кодом, комплексные протоколы очистки данных и новую саморазвивающуюся структуру для улучшения производительности навигации, что стимулирует дальнейшие исследования и разработки в сообществе. Код доступен по адресу https://github.com/antgroup/UI-Venus.
English
We present UI-Venus, a native UI agent that takes only screenshots as input
based on a multimodal large language model. UI-Venus achieves SOTA performance
on both UI grounding and navigation tasks using only several hundred thousand
high-quality training samples through reinforcement finetune (RFT) based on
Qwen2.5-VL. Specifically, the 7B and 72B variants of UI-Venus obtain 94.1% /
50.8% and 95.3% / 61.9% on the standard grounding benchmarks, i.e.,
Screenspot-V2 / Pro, surpassing the previous SOTA baselines including
open-source GTA1 and closed-source UI-TARS-1.5.To show UI-Venus's summary and
planing ability, we also evaluate it on the AndroidWorld, an online UI
navigation arena, on which our 7B and 72B variants achieve 49.1% and 65.9%
success rate, also beating existing models.To achieve this, we introduce
carefully designed reward functions for both UI grounding and navigation tasks
and corresponding efficient data cleaning strategies.To further boost
navigation performance, we propose Self-Evolving Trajectory History Alignment
\& Sparse Action Enhancement that refine historical reasoning traces and
balances the distribution of sparse but critical actions, leading to more
coherent planning and better generalization in complex UI tasks. Our
contributions include the publish of SOTA open-source UI agents, comprehensive
data cleaning protocols and a novel self-evolving framework for improving
navigation performance, which encourage further research and development in the
community. Code is available at https://github.com/antgroup/UI-Venus.