ChatPaper.aiChatPaper

GUI-AIMA: Согласование внутреннего мультимодального внимания с контекстным якорем для привязки к графическому интерфейсу

GUI-AIMA: Aligning Intrinsic Multimodal Attention with a Context Anchor for GUI Grounding

November 2, 2025
Авторы: Shijie Zhou, Viet Dac Lai, Hao Tan, Jihyung Kil, Wanrong Zhu, Changyou Chen, Ruiyi Zhang
cs.AI

Аннотация

Графическое заземление интерфейса (GUI grounding) является ключевой функцией агентов, работающих с компьютером, которая преобразует инструкции на естественном языке в действия над определенными областями экрана. Существующие подходы, основанные на мультимодальных больших языковых моделях (MLLM), обычно формулируют эту задачу как генерацию текстовых координат, однако прямая генерация точных координат из визуальных входных данных остается сложной и вычислительно затратной. Интуитивный способ реализации графического заземления заключается в том, чтобы сначала выбрать визуальные фрагменты, релевантные инструкциям, а затем определить точное местоположение клика внутри этих фрагментов. Основываясь на наблюдении, что общие MLLM обладают некоторой врожденной способностью к заземлению, скрытой в их механизмах внимания, мы предлагаем GUI-AIMA — бескоординатную систему тонкой настройки с обучением с учителем, основанную на внимании, для эффективного графического заземления. GUI-AIMA выравнивает внутреннее мультимодальное внимание MLLM с сигналами заземления на уровне фрагментов. Эти сигналы адаптивно вычисляются для разнообразных пользовательских инструкций с помощью многоголовой агрегации на упрощенных матрицах внимания «запрос-визуал». Кроме того, бескоординатный подход позволяет легко интегрировать подключаемый этап увеличения. Модель GUI-AIMA-3B была обучена всего на 85 тыс. скриншотов, демонстрируя исключительную эффективность использования данных и подтверждая, что легкое обучение может активировать врожденную способность MLLM к заземлению. Она достигает наилучших результатов среди моделей объемом 3B, демонстрируя среднюю точность 58.6% на ScreenSpot-Pro и 62.2% на OSWorld-G. Страница проекта: https://github.com/sjz5202/GUI-AIMA
English
Graphical user interface (GUI) grounding is a key function of computer-use agents, which maps natural-language instructions to actionable screen regions. Existing approaches based on Multimodal Large Language Models (MLLMs) typically formulate it as a text-based coordinate generation task, yet directly generating precise coordinates from visual inputs remains challenging and computationally intensive. An intuitive way to implement GUI grounding is to first select visual patches relevant to the instructions and then determine the precise click location within those patches. Based on the observations that general MLLMs have some native grounding capability, nested within their attentions, we propose GUI-AIMA, an attention-based and coordinate-free supervised fine-tuning framework for efficient GUI grounding. GUI-AIMA aligns the intrinsic multimodal attention of MLLMs with patch-wise grounding signals. These signals are calculated adaptively for diverse user instructions by multi-head aggregation on simplified query-visual attention matrices. Besides, its coordinate-free manner can easily integrate a plug-and-play zoom-in stage. GUI-AIMA-3B was trained with only 85k screenshots, demonstrating exceptional data efficiency and verifying that light training can trigger the native grounding capability of MLLMs. It achieves state-of-the-art performance among 3B models, attaining an average accuracy of 58.6% on ScreenSpot-Pro and 62.2% on OSWorld-G. Project page: https://github.com/sjz5202/GUI-AIMA
PDF31January 19, 2026