ChatPaper.aiChatPaper

A3: Арена агентов Android для мобильных GUI-агентов

A3: Android Agent Arena for Mobile GUI Agents

January 2, 2025
Авторы: Yuxiang Chai, Hanhao Li, Jiayu Zhang, Liang Liu, Guozhi Wang, Shuai Ren, Siyuan Huang, Hongsheng Li
cs.AI

Аннотация

Искусственные интеллектуальные агенты стали все более распространенными в последние годы, благодаря значительным достижениям в области крупных языковых моделей (LLM). Мобильные GUI-агенты, подмножество искусственных интеллектуальных агентов, разработаны для автономного выполнения задач на мобильных устройствах. Хотя множество исследований представили агентов, наборы данных и бенчмарки для продвижения исследований мобильных GUI-агентов, многие существующие наборы данных сосредоточены на оценках статических кадров и не предоставляют всесторонней платформы для оценки производительности на реальных, в дикой природе задачах. Для решения этого пробела мы представляем Android Agent Arena (A3), новую платформу оценки. В отличие от существующих систем в дикой природе, A3 предлагает: (1) значимые и практические задачи, такие как получение информации онлайн в реальном времени и операционные инструкции; (2) более крупное, более гибкое пространство действий, обеспечивающее совместимость с агентами, обученными на любом наборе данных; и (3) автоматизированный процесс оценки на уровне бизнеса на основе LLM. A3 включает 21 широко используемое общее стороннее приложение и 201 задачу, представляющую типичные сценарии использования пользователей, обеспечивая прочную основу для оценки мобильных GUI-агентов в реальных ситуациях и новый автономный процесс оценки для уменьшения человеческого труда и экспертизы в области кодирования. Проект доступен по адресу https://yuxiangchai.github.io/Android-Agent-Arena/.
English
AI agents have become increasingly prevalent in recent years, driven by significant advancements in the field of large language models (LLMs). Mobile GUI agents, a subset of AI agents, are designed to autonomously perform tasks on mobile devices. While numerous studies have introduced agents, datasets, and benchmarks to advance mobile GUI agent research, many existing datasets focus on static frame evaluations and fail to provide a comprehensive platform for assessing performance on real-world, in-the-wild tasks. To address this gap, we present Android Agent Arena (A3), a novel evaluation platform. Unlike existing in-the-wild systems, A3 offers: (1) meaningful and practical tasks, such as real-time online information retrieval and operational instructions; (2) a larger, more flexible action space, enabling compatibility with agents trained on any dataset; and (3) automated business-level LLM-based evaluation process. A3 includes 21 widely used general third-party apps and 201 tasks representative of common user scenarios, providing a robust foundation for evaluating mobile GUI agents in real-world situations and a new autonomous evaluation process for less human labor and coding expertise. The project is available at https://yuxiangchai.github.io/Android-Agent-Arena/.

Summary

AI-Generated Summary

PDF223January 3, 2025