ChatPaper.aiChatPaper

Mobile-Agent: Autonomer Multi-Modaler Mobiler Geräte-Agent mit Visueller Wahrnehmung

Mobile-Agent: Autonomous Multi-Modal Mobile Device Agent with Visual Perception

January 29, 2024
Autoren: Junyang Wang, Haiyang Xu, Jiabo Ye, Ming Yan, Weizhou Shen, Ji Zhang, Fei Huang, Jitao Sang
cs.AI

Zusammenfassung

Ein mobiler Geräteagent, der auf Multimodalen Großen Sprachmodellen (MLLM) basiert, wird zunehmend zu einer beliebten Anwendung. In diesem Artikel stellen wir Mobile-Agent vor, einen autonomen multimodalen mobilen Geräteagenten. Mobile-Agent nutzt zunächst visuelle Wahrnehmungstools, um sowohl die visuellen als auch die textuellen Elemente innerhalb der Benutzeroberfläche der App präzise zu identifizieren und zu lokalisieren. Basierend auf dem wahrgenommenen visuellen Kontext plant und zerlegt er dann autonom die komplexe Betriebsaufgabe und navigiert schrittweise durch die mobilen Apps. Im Gegensatz zu früheren Lösungen, die auf XML-Dateien der Apps oder Metadaten des mobilen Systems angewiesen sind, ermöglicht Mobile-Agent eine größere Anpassungsfähigkeit in verschiedenen mobilen Betriebsumgebungen auf visuell zentrierte Weise, wodurch die Notwendigkeit systemspezifischer Anpassungen entfällt. Um die Leistung von Mobile-Agent zu bewerten, haben wir Mobile-Eval eingeführt, einen Benchmark zur Bewertung von mobilen Geräteoperationen. Basierend auf Mobile-Eval haben wir eine umfassende Bewertung von Mobile-Agent durchgeführt. Die experimentellen Ergebnisse zeigen, dass Mobile-Agent bemerkenswerte Genauigkeits- und Abschlussraten erreicht hat. Selbst bei anspruchsvollen Anweisungen, wie z.B. Multi-App-Operationen, kann Mobile-Agent die Anforderungen dennoch erfüllen. Code und Modell werden unter https://github.com/X-PLUG/MobileAgent open-source zur Verfügung gestellt.
English
Mobile device agent based on Multimodal Large Language Models (MLLM) is becoming a popular application. In this paper, we introduce Mobile-Agent, an autonomous multi-modal mobile device agent. Mobile-Agent first leverages visual perception tools to accurately identify and locate both the visual and textual elements within the app's front-end interface. Based on the perceived vision context, it then autonomously plans and decomposes the complex operation task, and navigates the mobile Apps through operations step by step. Different from previous solutions that rely on XML files of Apps or mobile system metadata, Mobile-Agent allows for greater adaptability across diverse mobile operating environments in a vision-centric way, thereby eliminating the necessity for system-specific customizations. To assess the performance of Mobile-Agent, we introduced Mobile-Eval, a benchmark for evaluating mobile device operations. Based on Mobile-Eval, we conducted a comprehensive evaluation of Mobile-Agent. The experimental results indicate that Mobile-Agent achieved remarkable accuracy and completion rates. Even with challenging instructions, such as multi-app operations, Mobile-Agent can still complete the requirements. Code and model will be open-sourced at https://github.com/X-PLUG/MobileAgent.
PDF214December 15, 2024