Het Navigeren van de Digitale Wereld zoals Mensen Doen: Universele Visuele Gronding voor GUI Agenten
Navigating the Digital World as Humans Do: Universal Visual Grounding for GUI Agents
October 7, 2024
Auteurs: Boyu Gou, Ruohan Wang, Boyuan Zheng, Yanan Xie, Cheng Chang, Yiheng Shu, Huan Sun, Yu Su
cs.AI
Samenvatting
Multimodale grote taalmodellen (MLLM's) transformeren de mogelijkheden van grafische gebruikersinterface (GUI) agenten, waardoor hun overgang van gecontroleerde simulaties naar complexe, real-world toepassingen over verschillende platforms wordt vergemakkelijkt. De effectiviteit van deze agenten hangt echter af van de robuustheid van hun verankeringscapaciteit. Huidige GUI agenten maken voornamelijk gebruik van op tekst gebaseerde representaties zoals HTML of toegankelijkheidsbomen, die, ondanks hun bruikbaarheid, vaak ruis, onvolledigheid en verhoogde rekenkundige overhead introduceren. In dit artikel pleiten we voor een menselijke belichaming voor GUI agenten die de omgeving volledig visueel waarnemen en direct pixelniveau-operaties uitvoeren op de GUI. De sleutel ligt bij visuele verankering modellen die diverse verwijzende uitdrukkingen van GUI elementen nauwkeurig kunnen toewijzen aan hun coördinaten op de GUI over verschillende platforms. We tonen aan dat een eenvoudig recept, dat webgebaseerde synthetische gegevens en lichte aanpassing van de LLaVA-architectuur omvat, verrassend effectief is voor het trainen van dergelijke visuele verankering modellen. We verzamelen tot nu toe de grootste dataset voor visuele verankering van GUI, met 10M GUI elementen en hun verwijzende uitdrukkingen over 1.3M schermafbeeldingen, en gebruiken deze om UGround te trainen, een krachtig universeel visueel verankering model voor GUI agenten. Empirische resultaten op zes benchmarks die drie categorieën bestrijken (verankering, offline agent en online agent) tonen aan dat 1) UGround aanzienlijk beter presteert dan bestaande visuele verankering modellen voor GUI agenten, tot wel 20% absoluut, en 2) agenten met UGround presteren beter dan state-of-the-art agenten, ondanks het feit dat bestaande agenten extra op tekst gebaseerde invoer gebruiken terwijl de onze alleen visuele waarneming gebruikt. Deze resultaten bieden sterke ondersteuning voor de haalbaarheid en beloften van GUI agenten die de digitale wereld navigeren zoals mensen dat doen.
English
Multimodal large language models (MLLMs) are transforming the capabilities of
graphical user interface (GUI) agents, facilitating their transition from
controlled simulations to complex, real-world applications across various
platforms. However, the effectiveness of these agents hinges on the robustness
of their grounding capability. Current GUI agents predominantly utilize
text-based representations such as HTML or accessibility trees, which, despite
their utility, often introduce noise, incompleteness, and increased
computational overhead. In this paper, we advocate a human-like embodiment for
GUI agents that perceive the environment entirely visually and directly take
pixel-level operations on the GUI. The key is visual grounding models that can
accurately map diverse referring expressions of GUI elements to their
coordinates on the GUI across different platforms. We show that a simple
recipe, which includes web-based synthetic data and slight adaptation of the
LLaVA architecture, is surprisingly effective for training such visual
grounding models. We collect the largest dataset for GUI visual grounding so
far, containing 10M GUI elements and their referring expressions over 1.3M
screenshots, and use it to train UGround, a strong universal visual grounding
model for GUI agents. Empirical results on six benchmarks spanning three
categories (grounding, offline agent, and online agent) show that 1) UGround
substantially outperforms existing visual grounding models for GUI agents, by
up to 20% absolute, and 2) agents with UGround outperform state-of-the-art
agents, despite the fact that existing agents use additional text-based input
while ours only uses visual perception. These results provide strong support
for the feasibility and promises of GUI agents that navigate the digital world
as humans do.Summary
AI-Generated Summary