ChatPaper.aiChatPaper

Navigare nel Mondo Digitale come fanno gli Esseri Umani: Fondamenta Visive Universali per Agenti GUI

Navigating the Digital World as Humans Do: Universal Visual Grounding for GUI Agents

October 7, 2024
Autori: Boyu Gou, Ruohan Wang, Boyuan Zheng, Yanan Xie, Cheng Chang, Yiheng Shu, Huan Sun, Yu Su
cs.AI

Abstract

I modelli linguistici multimodali di grandi dimensioni (MLLM) stanno trasformando le capacità degli agenti dell'interfaccia utente grafica (GUI), facilitando il passaggio da simulazioni controllate a complesse applicazioni reali su varie piattaforme. Tuttavia, l'efficacia di questi agenti dipende dalla robustezza della loro capacità di fondazione. Gli attuali agenti GUI utilizzano prevalentemente rappresentazioni basate su testo come HTML o alberi di accessibilità, che, nonostante la loro utilità, spesso introducono rumore, incompletezza e un aumento del carico computazionale. In questo articolo, sosteniamo l'incorporazione di un'umanità per gli agenti GUI che percepiscono l'ambiente interamente in modo visivo e operano direttamente a livello di pixel sull'interfaccia utente grafica. La chiave sono i modelli di fondazione visiva che possono mappare con precisione diverse espressioni di riferimento degli elementi GUI alle loro coordinate sull'interfaccia utente grafica su diverse piattaforme. Dimostriamo che una semplice ricetta, che include dati sintetici basati sul web e lievi adattamenti dell'architettura LLaVA, è sorprendentemente efficace per addestrare tali modelli di fondazione visiva. Raccogliamo il più grande dataset per la fondazione visiva GUI finora, contenente 10M elementi GUI e le relative espressioni di riferimento su oltre 1.3M screenshot, e lo utilizziamo per addestrare UGround, un forte modello universale di fondazione visiva per agenti GUI. I risultati empirici su sei benchmark che coprono tre categorie (fondazione, agente offline e agente online) mostrano che 1) UGround supera notevolmente i modelli di fondazione visiva esistenti per agenti GUI, fino al 20% in valore assoluto, e 2) gli agenti con UGround superano gli agenti all'avanguardia, nonostante il fatto che gli agenti esistenti utilizzino input aggiuntivi basati su testo mentre il nostro utilizza solo percezione visiva. Questi risultati forniscono un forte supporto alla fattibilità e alle promesse degli agenti GUI che navigano nel mondo digitale come fanno gli esseri umani.
English
Multimodal large language models (MLLMs) are transforming the capabilities of graphical user interface (GUI) agents, facilitating their transition from controlled simulations to complex, real-world applications across various platforms. However, the effectiveness of these agents hinges on the robustness of their grounding capability. Current GUI agents predominantly utilize text-based representations such as HTML or accessibility trees, which, despite their utility, often introduce noise, incompleteness, and increased computational overhead. In this paper, we advocate a human-like embodiment for GUI agents that perceive the environment entirely visually and directly take pixel-level operations on the GUI. The key is visual grounding models that can accurately map diverse referring expressions of GUI elements to their coordinates on the GUI across different platforms. We show that a simple recipe, which includes web-based synthetic data and slight adaptation of the LLaVA architecture, is surprisingly effective for training such visual grounding models. We collect the largest dataset for GUI visual grounding so far, containing 10M GUI elements and their referring expressions over 1.3M screenshots, and use it to train UGround, a strong universal visual grounding model for GUI agents. Empirical results on six benchmarks spanning three categories (grounding, offline agent, and online agent) show that 1) UGround substantially outperforms existing visual grounding models for GUI agents, by up to 20% absolute, and 2) agents with UGround outperform state-of-the-art agents, despite the fact that existing agents use additional text-based input while ours only uses visual perception. These results provide strong support for the feasibility and promises of GUI agents that navigate the digital world as humans do.
PDF192November 16, 2024