ChatPaper.aiChatPaper

Исследование многоуровневых аннотаций концепций для мультимодальных крупномасштабных языковых моделей.

Exploring Multi-Grained Concept Annotations for Multimodal Large Language Models

December 8, 2024
Авторы: Xiao Xu, Tianhao Niu, Yuxi Xie, Libo Qin, Wanxiang Che, Min-Yen Kan
cs.AI

Аннотация

Многомодельные модели на больших языковых корпусах (MLLM) превосходят в задачах вид-язык благодаря предварительному обучению исключительно на грубых аннотациях концепций (например, подписям к изображениям). Мы предполагаем, что интеграция аннотаций тонкой детализации концепций (например, меток объектов и областей объектов) дополнительно улучшит производительность, поскольку обе гранулярности данных дополняют друг друга в плане ширины и глубины представления концепций. Мы представляем новый набор данных с аннотациями многомодальных мультигранулярных концепций (MMGiC) для MLLM. При создании MMGiC мы исследуем влияние различных методов обработки данных на многомодальное понимание и генерацию. Наши анализы показывают, что мультигранулярные аннотации концепций интегрируются и дополняют друг друга в рамках нашего структурированного шаблона и общей структуры MLLM. Мы ясно исследуем и демонстрируем потенциал MMGiC в помощи MLLM в лучшем определении и изучении концепций, выравнивая вид и язык на разных уровнях детализации. Мы также подтверждаем нашу гипотезу, исследуя справедливое сравнение и эффективное взаимодействие между MMGiC и данными изображения-подпись на 12 многомодальных бенчмарках понимания и генерации, например, их сочетание достигает улучшений на 3.95% и 2.34% по сравнению только с данными изображения-подпись на POPE и SEED-Bench. Код, данные и модели будут доступны на https://github.com/LooperXX/MMGiC.
English
Multimodal Large Language Models (MLLMs) excel in vision--language tasks by pre-training solely on coarse-grained concept annotations (e.g., image captions). We hypothesize that integrating fine-grained concept annotations (e.g., object labels and object regions) will further improve performance, as both data granularities complement each other in terms of breadth and depth in concept representation. We introduce a new dataset featuring Multimodal Multi-Grained Concept annotations (MMGiC) for MLLMs. In constructing MMGiC, we explore the impact of different data recipes on multimodal comprehension and generation. Our analyses reveal that multi-grained concept annotations integrate and complement each other, under our structured template and a general MLLM framework. We clearly explore and demonstrate the potential of MMGiC to help MLLMs better locate and learn concepts, aligning vision and language at multiple granularities. We further validate our hypothesis by investigating the fair comparison and effective collaboration between MMGiC and image--caption data on 12 multimodal comprehension and generation benchmarks, e.g., their appropriate combination achieve 3.95% and 2.34% absolute improvements over image--caption data alone on POPE and SEED-Bench. Code, data and models will be available at https://github.com/LooperXX/MMGiC.

Summary

AI-Generated Summary

PDF162December 10, 2024