ChatPaper.aiChatPaper

TextHawk: Исследование эффективного детального восприятия мультимодальных крупномасштабных языковых моделей

TextHawk: Exploring Efficient Fine-Grained Perception of Multimodal Large Language Models

April 14, 2024
Авторы: Ya-Qi Yu, Minghui Liao, Jihao Wu, Yongxin Liao, Xiaoyu Zheng, Wei Zeng
cs.AI

Аннотация

Многомодельные модели на большом языке (MLLM) продемонстрировали впечатляющие результаты на различных многомодальных задачах. Однако большинство существующих MLLM плохо подходят для задач, ориентированных на документы, которые требуют точного восприятия изображений и сжатия информации. В данной статье мы представляем TextHawk, MLLM, специально разработанный для задач, ориентированных на документы, сохраняя при этом общие возможности MLLM. TextHawk направлен на исследование эффективного точного восприятия путем разработки четырех специализированных компонентов. Во-первых, предлагается модуль ReSampling and ReArrangement (ReSA) для уменьшения избыточности в текстах документов и снижения вычислительных затрат MLLM. Мы исследуем кодирование позиций каждой локальной особенности, представляя Масштабируемые Позиционные Вложения (SPE), которые могут сохранить масштабируемость различных размеров изображений. Затем принимается Сеть Предложений Запросов (QPN) для динамической инициализации запросов среди различных подизображений. Для дальнейшего улучшения точной визуальной восприимчивости MLLM мы разрабатываем механизм Многоуровневого Перекрестного Внимания (MLCA), который захватывает иерархическую структуру и семантические отношения документов. Кроме того, мы создаем новый набор данных для настройки инструкций для задач, ориентированных на документы, обогащая многомодальные данные документов с помощью Gemini Pro. Мы проводим обширные эксперименты как на общих, так и на ориентированных на документы бенчмарках MLLM и показываем, что TextHawk превосходит современные методы, демонстрируя его эффективность и превосходство в точном восприятии документов и общих способностях.
English
Multimodal Large Language Models (MLLMs) have shown impressive results on various multimodal tasks. However, most existing MLLMs are not well suited for document-oriented tasks, which require fine-grained image perception and information compression. In this paper, we present TextHawk, a MLLM that is specifically designed for document-oriented tasks, while preserving the general capabilities of MLLMs. TextHawk is aimed to explore efficient fine-grained perception by designing four dedicated components. Firstly, a ReSampling and ReArrangement (ReSA) module is proposed to reduce the redundancy in the document texts and lower the computational cost of the MLLM. We explore encoding the positions of each local feature by presenting Scalable Positional Embeddings (SPEs), which can preserve the scalability of various image sizes. A Query Proposal Network (QPN) is then adopted to initialize the queries dynamically among different sub-images. To further enhance the fine-grained visual perceptual ability of the MLLM, we design a Multi-Level Cross-Attention (MLCA) mechanism that captures the hierarchical structure and semantic relations of document images. Furthermore, we create a new instruction-tuning dataset for document-oriented tasks by enriching the multimodal document data with Gemini Pro. We conduct extensive experiments on both general and document-oriented MLLM benchmarks, and show that TextHawk outperforms the state-of-the-art methods, demonstrating its effectiveness and superiority in fine-grained document perception and general abilities.

Summary

AI-Generated Summary

PDF110December 15, 2024