Навигация в цифровом мире так, как это делают люди: универсальное визуальное опорное основание для агентов графического пользовательского интерфейса
Navigating the Digital World as Humans Do: Universal Visual Grounding for GUI Agents
October 7, 2024
Авторы: Boyu Gou, Ruohan Wang, Boyuan Zheng, Yanan Xie, Cheng Chang, Yiheng Shu, Huan Sun, Yu Su
cs.AI
Аннотация
Многомодельные модели языка (MLLM) трансформируют возможности агентов графического пользовательского интерфейса (GUI), облегчая их переход от контролируемых симуляций к сложным приложениям в реальном мире на различных платформах. Однако эффективность этих агентов зависит от надежности их базовой способности. На сегодняшний день GUI-агенты в основном используют текстовые представления, такие как HTML или деревья доступности, которые, несмотря на свою полезность, часто вносят шум, неполноту и увеличивают вычислительную нагрузку. В данной статье мы отстаиваем идею о воплощении человекоподобности для GUI-агентов, которые воспринимают окружающую среду исключительно визуально и непосредственно выполняют операции на уровне пикселей на GUI. Ключевым являются модели визуальной базировки, способные точно отображать разнообразные обращения к элементам GUI на их координаты на GUI на различных платформах. Мы показываем, что простой рецепт, включающий веб-основанные синтетические данные и небольшую адаптацию архитектуры LLaVA, удивительно эффективен для обучения таких моделей визуальной базировки. Мы собрали к настоящему времени самый крупный набор данных для визуальной базировки GUI, содержащий 10 млн элементов GUI и их обращения на более чем 1.3 млн скриншотах, и используем его для обучения UGround, сильной универсальной модели визуальной базировки для GUI-агентов. Эмпирические результаты на шести бенчмарках, охватывающих три категории (базировка, оффлайн-агент и онлайн-агент), показывают, что 1) UGround значительно превосходит существующие модели визуальной базировки для GUI-агентов, на до 20% абсолютно, и 2) агенты с UGround превосходят агентов последнего поколения, несмотря на то, что существующие агенты используют дополнительный текстовый ввод, в то время как наш использует только визуальное восприятие. Эти результаты крепко подтверждают возможность и перспективы GUI-агентов, которые перемещаются по цифровому миру так, как это делают люди.
English
Multimodal large language models (MLLMs) are transforming the capabilities of
graphical user interface (GUI) agents, facilitating their transition from
controlled simulations to complex, real-world applications across various
platforms. However, the effectiveness of these agents hinges on the robustness
of their grounding capability. Current GUI agents predominantly utilize
text-based representations such as HTML or accessibility trees, which, despite
their utility, often introduce noise, incompleteness, and increased
computational overhead. In this paper, we advocate a human-like embodiment for
GUI agents that perceive the environment entirely visually and directly take
pixel-level operations on the GUI. The key is visual grounding models that can
accurately map diverse referring expressions of GUI elements to their
coordinates on the GUI across different platforms. We show that a simple
recipe, which includes web-based synthetic data and slight adaptation of the
LLaVA architecture, is surprisingly effective for training such visual
grounding models. We collect the largest dataset for GUI visual grounding so
far, containing 10M GUI elements and their referring expressions over 1.3M
screenshots, and use it to train UGround, a strong universal visual grounding
model for GUI agents. Empirical results on six benchmarks spanning three
categories (grounding, offline agent, and online agent) show that 1) UGround
substantially outperforms existing visual grounding models for GUI agents, by
up to 20% absolute, and 2) agents with UGround outperform state-of-the-art
agents, despite the fact that existing agents use additional text-based input
while ours only uses visual perception. These results provide strong support
for the feasibility and promises of GUI agents that navigate the digital world
as humans do.Summary
AI-Generated Summary