Mobile-Agent: Agente Autônomo Multimodal para Dispositivos Móveis com Percepção Visual
Mobile-Agent: Autonomous Multi-Modal Mobile Device Agent with Visual Perception
January 29, 2024
Autores: Junyang Wang, Haiyang Xu, Jiabo Ye, Ming Yan, Weizhou Shen, Ji Zhang, Fei Huang, Jitao Sang
cs.AI
Resumo
O agente de dispositivo móvel baseado em Modelos de Linguagem Multimodais de Grande Escala (MLLM) está se tornando uma aplicação popular. Neste artigo, apresentamos o Mobile-Agent, um agente autônomo multimodal para dispositivos móveis. O Mobile-Agent primeiro utiliza ferramentas de percepção visual para identificar e localizar com precisão os elementos visuais e textuais na interface frontal do aplicativo. Com base no contexto visual percebido, ele então planeja e decompõe autonomamente a tarefa de operação complexa, e navega pelos aplicativos móveis por meio de operações passo a passo. Diferente de soluções anteriores que dependem de arquivos XML dos aplicativos ou metadados do sistema móvel, o Mobile-Agent permite uma maior adaptabilidade em diversos ambientes operacionais móveis de forma centrada na visão, eliminando assim a necessidade de customizações específicas para cada sistema. Para avaliar o desempenho do Mobile-Agent, introduzimos o Mobile-Eval, um benchmark para avaliar operações em dispositivos móveis. Com base no Mobile-Eval, realizamos uma avaliação abrangente do Mobile-Agent. Os resultados experimentais indicam que o Mobile-Agent alcançou taxas notáveis de precisão e conclusão. Mesmo com instruções desafiadoras, como operações envolvendo múltiplos aplicativos, o Mobile-Agent ainda consegue cumprir os requisitos. O código e o modelo serão disponibilizados em https://github.com/X-PLUG/MobileAgent.
English
Mobile device agent based on Multimodal Large Language Models (MLLM) is
becoming a popular application. In this paper, we introduce Mobile-Agent, an
autonomous multi-modal mobile device agent. Mobile-Agent first leverages visual
perception tools to accurately identify and locate both the visual and textual
elements within the app's front-end interface. Based on the perceived vision
context, it then autonomously plans and decomposes the complex operation task,
and navigates the mobile Apps through operations step by step. Different from
previous solutions that rely on XML files of Apps or mobile system metadata,
Mobile-Agent allows for greater adaptability across diverse mobile operating
environments in a vision-centric way, thereby eliminating the necessity for
system-specific customizations. To assess the performance of Mobile-Agent, we
introduced Mobile-Eval, a benchmark for evaluating mobile device operations.
Based on Mobile-Eval, we conducted a comprehensive evaluation of Mobile-Agent.
The experimental results indicate that Mobile-Agent achieved remarkable
accuracy and completion rates. Even with challenging instructions, such as
multi-app operations, Mobile-Agent can still complete the requirements. Code
and model will be open-sourced at https://github.com/X-PLUG/MobileAgent.