Die Navigation in der digitalen Welt wie Menschen es tun: Universelles visuelles Fundament für GUI-Agenten.
Navigating the Digital World as Humans Do: Universal Visual Grounding for GUI Agents
October 7, 2024
Autoren: Boyu Gou, Ruohan Wang, Boyuan Zheng, Yanan Xie, Cheng Chang, Yiheng Shu, Huan Sun, Yu Su
cs.AI
Zusammenfassung
Multimodale große Sprachmodelle (MLLMs) transformieren die Fähigkeiten von grafischen Benutzeroberflächen (GUI)-Agenten und erleichtern ihren Übergang von kontrollierten Simulationen zu komplexen Anwendungen in verschiedenen Plattformen der realen Welt. Die Effektivität dieser Agenten hängt jedoch entscheidend von der Robustheit ihrer Verankerungsfähigkeit ab. Aktuelle GUI-Agenten nutzen hauptsächlich textbasierte Darstellungen wie HTML oder Zugänglichkeitsbäume, die trotz ihrer Nützlichkeit oft Rauschen, Unvollständigkeit und erhöhten Rechenaufwand mit sich bringen. In diesem Paper plädieren wir für eine menschenähnliche Verkörperung von GUI-Agenten, die ihre Umgebung vollständig visuell wahrnehmen und direkt pixelbasierte Operationen auf der GUI durchführen. Der Schlüssel sind visuelle Verankerungsmodelle, die diverse Bezugsausdrücke von GUI-Elementen genau auf ihren Koordinaten auf der GUI über verschiedene Plattformen hinweg abbilden können. Wir zeigen, dass ein einfaches Rezept, das webbasierte synthetische Daten und eine leichte Anpassung der LLaVA-Architektur umfasst, überraschend effektiv für das Training solcher visueller Verankerungsmodelle ist. Wir sammeln den bisher größten Datensatz für die visuelle Verankerung von GUI, der 10 Millionen GUI-Elemente und ihre Bezugsausdrücke über 1,3 Millionen Bildschirmfotos enthält, und verwenden ihn, um UGround zu trainieren, ein starkes universelles visuelles Verankerungsmodell für GUI-Agenten. Empirische Ergebnisse auf sechs Benchmarks in drei Kategorien (Verankerung, Offline-Agent und Online-Agent) zeigen, dass 1) UGround bestehende visuelle Verankerungsmodelle für GUI-Agenten deutlich übertrifft, um bis zu 20% absolut, und 2) Agenten mit UGround übertreffen State-of-the-Art-Agenten, obwohl bestehende Agenten zusätzliche textbasierte Eingaben verwenden, während unsere nur visuelle Wahrnehmung nutzen. Diese Ergebnisse unterstützen nachdrücklich die Machbarkeit und Versprechen von GUI-Agenten, die die digitale Welt so navigieren wie Menschen es tun.
English
Multimodal large language models (MLLMs) are transforming the capabilities of
graphical user interface (GUI) agents, facilitating their transition from
controlled simulations to complex, real-world applications across various
platforms. However, the effectiveness of these agents hinges on the robustness
of their grounding capability. Current GUI agents predominantly utilize
text-based representations such as HTML or accessibility trees, which, despite
their utility, often introduce noise, incompleteness, and increased
computational overhead. In this paper, we advocate a human-like embodiment for
GUI agents that perceive the environment entirely visually and directly take
pixel-level operations on the GUI. The key is visual grounding models that can
accurately map diverse referring expressions of GUI elements to their
coordinates on the GUI across different platforms. We show that a simple
recipe, which includes web-based synthetic data and slight adaptation of the
LLaVA architecture, is surprisingly effective for training such visual
grounding models. We collect the largest dataset for GUI visual grounding so
far, containing 10M GUI elements and their referring expressions over 1.3M
screenshots, and use it to train UGround, a strong universal visual grounding
model for GUI agents. Empirical results on six benchmarks spanning three
categories (grounding, offline agent, and online agent) show that 1) UGround
substantially outperforms existing visual grounding models for GUI agents, by
up to 20% absolute, and 2) agents with UGround outperform state-of-the-art
agents, despite the fact that existing agents use additional text-based input
while ours only uses visual perception. These results provide strong support
for the feasibility and promises of GUI agents that navigate the digital world
as humans do.Summary
AI-Generated Summary