ChatPaper.aiChatPaper

Mobile-Agent: Agente Autonomo Multi-Modale per Dispositivi Mobili con Percezione Visiva

Mobile-Agent: Autonomous Multi-Modal Mobile Device Agent with Visual Perception

January 29, 2024
Autori: Junyang Wang, Haiyang Xu, Jiabo Ye, Ming Yan, Weizhou Shen, Ji Zhang, Fei Huang, Jitao Sang
cs.AI

Abstract

L'agente per dispositivi mobili basato su Modelli Linguistici Multimodali di Grande Scala (MLLM) sta diventando un'applicazione sempre più popolare. In questo articolo, presentiamo Mobile-Agent, un agente autonomo multimodale per dispositivi mobili. Mobile-Agent utilizza inizialmente strumenti di percezione visiva per identificare e localizzare con precisione sia gli elementi visivi che testuali all'interno dell'interfaccia front-end dell'applicazione. Sulla base del contesto visivo percepito, pianifica e scompone autonomamente il compito operativo complesso, navigando attraverso le app mobili eseguendo operazioni passo dopo passo. A differenza delle soluzioni precedenti che si basano su file XML delle app o metadati del sistema mobile, Mobile-Agent consente una maggiore adattabilità in diversi ambienti operativi mobili in modo centrato sulla visione, eliminando così la necessità di personalizzazioni specifiche per il sistema. Per valutare le prestazioni di Mobile-Agent, abbiamo introdotto Mobile-Eval, un benchmark per la valutazione delle operazioni sui dispositivi mobili. Basandoci su Mobile-Eval, abbiamo condotto una valutazione completa di Mobile-Agent. I risultati sperimentali indicano che Mobile-Agent ha raggiunto livelli notevoli di accuratezza e tassi di completamento. Anche con istruzioni complesse, come operazioni multi-app, Mobile-Agent è comunque in grado di soddisfare i requisiti. Il codice e il modello saranno open-source su https://github.com/X-PLUG/MobileAgent.
English
Mobile device agent based on Multimodal Large Language Models (MLLM) is becoming a popular application. In this paper, we introduce Mobile-Agent, an autonomous multi-modal mobile device agent. Mobile-Agent first leverages visual perception tools to accurately identify and locate both the visual and textual elements within the app's front-end interface. Based on the perceived vision context, it then autonomously plans and decomposes the complex operation task, and navigates the mobile Apps through operations step by step. Different from previous solutions that rely on XML files of Apps or mobile system metadata, Mobile-Agent allows for greater adaptability across diverse mobile operating environments in a vision-centric way, thereby eliminating the necessity for system-specific customizations. To assess the performance of Mobile-Agent, we introduced Mobile-Eval, a benchmark for evaluating mobile device operations. Based on Mobile-Eval, we conducted a comprehensive evaluation of Mobile-Agent. The experimental results indicate that Mobile-Agent achieved remarkable accuracy and completion rates. Even with challenging instructions, such as multi-app operations, Mobile-Agent can still complete the requirements. Code and model will be open-sourced at https://github.com/X-PLUG/MobileAgent.
PDF204December 15, 2024