ChatPaper.aiChatPaper

Обучение с подкреплением во время тестирования для привязки графического интерфейса через согласованность регионов

Test-Time Reinforcement Learning for GUI Grounding via Region Consistency

August 7, 2025
Авторы: Yong Du, Yuchen Yan, Fei Tang, Zhengxi Lu, Chang Zong, Weiming Lu, Shengpei Jiang, Yongliang Shen
cs.AI

Аннотация

Графический интерфейс пользователя (GUI) grounding — задача сопоставления инструкций на естественном языке с точными координатами на экране — является фундаментальной для автономных агентов, работающих с GUI. Хотя существующие методы достигают высокой производительности за счет обширного обучения с учителем или обучения с подкреплением с помеченными наградами, они остаются ограниченными стоимостью и доступностью аннотаций на уровне пикселей. Мы наблюдаем, что когда модели генерируют несколько предсказаний для одного и того же элемента GUI, паттерны пространственного перекрытия выявляют неявные сигналы уверенности, которые могут направлять более точную локализацию. Используя это наблюдение, мы предлагаем GUI-RC (Region Consistency), метод масштабирования на этапе тестирования, который строит пространственные голосующие сетки из множества сэмплированных предсказаний для выявления областей консенсуса, где модели демонстрируют наибольшее согласие. Без какого-либо обучения GUI-RC повышает точность на 2-3% для различных архитектур на бенчмарках ScreenSpot. Мы также представляем GUI-RCPO (Region Consistency Policy Optimization), который преобразует эти паттерны согласованности в награды для обучения с подкреплением на этапе тестирования. Вычисляя, насколько хорошо каждое предсказание соответствует коллективному консенсусу, GUI-RCPO позволяет моделям итеративно улучшать свои выходные данные на немаркированных данных во время вывода. Обширные эксперименты демонстрируют универсальность нашего подхода: GUI-RC повышает точность Qwen2.5-VL-3B-Instruct с 80,11% до 83,57% на ScreenSpot-v2, а GUI-RCPO дополнительно улучшает её до 85,14% за счет самообучающейся оптимизации. Наш подход раскрывает неиспользованный потенциал масштабирования на этапе тестирования и обучения с подкреплением на этапе тестирования для GUI grounding, предлагая перспективный путь к созданию более надежных и эффективных с точки зрения данных GUI агентов.
English
Graphical User Interface (GUI) grounding, the task of mapping natural language instructions to precise screen coordinates, is fundamental to autonomous GUI agents. While existing methods achieve strong performance through extensive supervised training or reinforcement learning with labeled rewards, they remain constrained by the cost and availability of pixel-level annotations. We observe that when models generate multiple predictions for the same GUI element, the spatial overlap patterns reveal implicit confidence signals that can guide more accurate localization. Leveraging this insight, we propose GUI-RC (Region Consistency), a test-time scaling method that constructs spatial voting grids from multiple sampled predictions to identify consensus regions where models show highest agreement. Without any training, GUI-RC improves accuracy by 2-3% across various architectures on ScreenSpot benchmarks. We further introduce GUI-RCPO (Region Consistency Policy Optimization), which transforms these consistency patterns into rewards for test-time reinforcement learning. By computing how well each prediction aligns with the collective consensus, GUI-RCPO enables models to iteratively refine their outputs on unlabeled data during inference. Extensive experiments demonstrate the generality of our approach: GUI-RC boosts Qwen2.5-VL-3B-Instruct from 80.11% to 83.57% on ScreenSpot-v2, while GUI-RCPO further improves it to 85.14% through self-supervised optimization. Our approach reveals the untapped potential of test-time scaling and test-time reinforcement learning for GUI grounding, offering a promising path toward more robust and data-efficient GUI agents.
PDF182August 13, 2025