Mobile-Agent: Автономный мультимодальный агент для мобильных устройств с визуальным восприятием
Mobile-Agent: Autonomous Multi-Modal Mobile Device Agent with Visual Perception
January 29, 2024
Авторы: Junyang Wang, Haiyang Xu, Jiabo Ye, Ming Yan, Weizhou Shen, Ji Zhang, Fei Huang, Jitao Sang
cs.AI
Аннотация
Агент для мобильных устройств на основе мультимодальных больших языковых моделей (MLLM) становится популярным приложением. В данной статье мы представляем Mobile-Agent — автономного мультимодального агента для мобильных устройств. Mobile-Agent сначала использует инструменты визуального восприятия для точного определения и локализации как визуальных, так и текстовых элементов в интерфейсе приложения. На основе воспринятого визуального контекста он затем автономно планирует и декомпозирует сложную операционную задачу, шаг за шагом выполняя навигацию по мобильным приложениям. В отличие от предыдущих решений, которые полагались на XML-файлы приложений или метаданные мобильной системы, Mobile-Agent обеспечивает большую адаптируемость в различных мобильных операционных средах, используя визуально-ориентированный подход, что устраняет необходимость в специфических настройках для каждой системы. Для оценки производительности Mobile-Agent мы представили Mobile-Eval — эталонный тест для оценки операций на мобильных устройствах. На основе Mobile-Eval мы провели всестороннюю оценку Mobile-Agent. Результаты экспериментов показывают, что Mobile-Agent достиг высокой точности и уровня завершенности задач. Даже при сложных инструкциях, таких как операции с несколькими приложениями, Mobile-Agent способен выполнить требования. Код и модель будут опубликованы в открытом доступе по адресу https://github.com/X-PLUG/MobileAgent.
English
Mobile device agent based on Multimodal Large Language Models (MLLM) is
becoming a popular application. In this paper, we introduce Mobile-Agent, an
autonomous multi-modal mobile device agent. Mobile-Agent first leverages visual
perception tools to accurately identify and locate both the visual and textual
elements within the app's front-end interface. Based on the perceived vision
context, it then autonomously plans and decomposes the complex operation task,
and navigates the mobile Apps through operations step by step. Different from
previous solutions that rely on XML files of Apps or mobile system metadata,
Mobile-Agent allows for greater adaptability across diverse mobile operating
environments in a vision-centric way, thereby eliminating the necessity for
system-specific customizations. To assess the performance of Mobile-Agent, we
introduced Mobile-Eval, a benchmark for evaluating mobile device operations.
Based on Mobile-Eval, we conducted a comprehensive evaluation of Mobile-Agent.
The experimental results indicate that Mobile-Agent achieved remarkable
accuracy and completion rates. Even with challenging instructions, such as
multi-app operations, Mobile-Agent can still complete the requirements. Code
and model will be open-sourced at https://github.com/X-PLUG/MobileAgent.