ChatPaper.aiChatPaper

Mobile-Agent : Agent autonome multi-modal pour appareils mobiles avec perception visuelle

Mobile-Agent: Autonomous Multi-Modal Mobile Device Agent with Visual Perception

January 29, 2024
Auteurs: Junyang Wang, Haiyang Xu, Jiabo Ye, Ming Yan, Weizhou Shen, Ji Zhang, Fei Huang, Jitao Sang
cs.AI

Résumé

L'agent pour dispositifs mobiles basé sur des modèles de langage multimodaux de grande envergure (MLLM) devient une application populaire. Dans cet article, nous présentons Mobile-Agent, un agent autonome multimodal pour dispositifs mobiles. Mobile-Agent exploite d'abord des outils de perception visuelle pour identifier et localiser avec précision les éléments visuels et textuels de l'interface frontale de l'application. En se basant sur le contexte visuel perçu, il planifie et décompose ensuite de manière autonome la tâche d'opération complexe, et navigue dans les applications mobiles étape par étape. Contrairement aux solutions précédentes qui reposent sur les fichiers XML des applications ou les métadonnées du système mobile, Mobile-Agent offre une plus grande adaptabilité dans divers environnements d'exploitation mobiles de manière centrée sur la vision, éliminant ainsi la nécessité de personnalisations spécifiques au système. Pour évaluer les performances de Mobile-Agent, nous avons introduit Mobile-Eval, un benchmark pour évaluer les opérations sur les dispositifs mobiles. Sur la base de Mobile-Eval, nous avons mené une évaluation complète de Mobile-Agent. Les résultats expérimentaux indiquent que Mobile-Agent a atteint des taux de précision et de réalisation remarquables. Même avec des instructions complexes, telles que des opérations multi-applications, Mobile-Agent peut toujours répondre aux exigences. Le code et le modèle seront rendus open-source à l'adresse https://github.com/X-PLUG/MobileAgent.
English
Mobile device agent based on Multimodal Large Language Models (MLLM) is becoming a popular application. In this paper, we introduce Mobile-Agent, an autonomous multi-modal mobile device agent. Mobile-Agent first leverages visual perception tools to accurately identify and locate both the visual and textual elements within the app's front-end interface. Based on the perceived vision context, it then autonomously plans and decomposes the complex operation task, and navigates the mobile Apps through operations step by step. Different from previous solutions that rely on XML files of Apps or mobile system metadata, Mobile-Agent allows for greater adaptability across diverse mobile operating environments in a vision-centric way, thereby eliminating the necessity for system-specific customizations. To assess the performance of Mobile-Agent, we introduced Mobile-Eval, a benchmark for evaluating mobile device operations. Based on Mobile-Eval, we conducted a comprehensive evaluation of Mobile-Agent. The experimental results indicate that Mobile-Agent achieved remarkable accuracy and completion rates. Even with challenging instructions, such as multi-app operations, Mobile-Agent can still complete the requirements. Code and model will be open-sourced at https://github.com/X-PLUG/MobileAgent.
PDF214December 15, 2024