ChatPaper.aiChatPaper

LEGO: 言語強化型マルチモーダルグラウンディングモデル

LEGO:Language Enhanced Multi-modal Grounding Model

January 11, 2024
著者: Zhaowei Li, Qi Xu, Dong Zhang, Hang Song, Yiqing Cai, Qi Qi, Ran Zhou, Junting Pan, Zefeng Li, Van Tu Vu, Zhida Huang, Tao Wang
cs.AI

要旨

マルチモーダル大規模言語モデルは、様々なモダリティにおける多岐にわたるタスクで印象的な性能を発揮してきました。しかし、既存のマルチモーダルモデルは主に各モダリティ内のグローバル情報の捕捉に重点を置いており、モダリティ間のローカル情報の知覚の重要性を軽視しています。その結果、これらのモデルは入力データの細部を効果的に理解する能力に欠けており、より微妙な理解を必要とするタスクでの性能が制限されています。この制限に対処するため、複数のモダリティにわたる細粒度の理解を可能にするモデルの開発が強く求められています。これにより、幅広いタスクへの適用性が向上します。本論文では、言語を強化したマルチモーダルグラウンディングモデルであるLEGOを提案します。他のマルチモーダルモデルと同様にグローバル情報を捕捉するだけでなく、提案モデルは入力内のローカル情報の詳細な理解を要求するタスクに優れています。画像内の特定の領域やビデオ内の特定の瞬間を正確に識別し、位置特定することができます。この目的を達成するために、多様なデータセット構築パイプラインを設計し、モデルトレーニング用のマルチモーダルでマルチグラニュラリティのデータセットを作成しました。モデルのコード、データセット、デモはhttps://github.com/lzw-lzw/LEGOで公開しています。
English
Multi-modal large language models have demonstrated impressive performance across various tasks in different modalities. However, existing multi-modal models primarily emphasize capturing global information within each modality while neglecting the importance of perceiving local information across modalities. Consequently, these models lack the ability to effectively understand the fine-grained details of input data, limiting their performance in tasks that require a more nuanced understanding. To address this limitation, there is a compelling need to develop models that enable fine-grained understanding across multiple modalities, thereby enhancing their applicability to a wide range of tasks. In this paper, we propose LEGO, a language enhanced multi-modal grounding model. Beyond capturing global information like other multi-modal models, our proposed model excels at tasks demanding a detailed understanding of local information within the input. It demonstrates precise identification and localization of specific regions in images or moments in videos. To achieve this objective, we design a diversified dataset construction pipeline, resulting in a multi-modal, multi-granularity dataset for model training. The code, dataset, and demo of our model can be found at https: //github.com/lzw-lzw/LEGO.
PDF130December 15, 2024