SymDPO: 大規模マルチモーダルモデルのインコンテキスト学習を記号デモンストレーションによる直接選好最適化で強化
SymDPO: Boosting In-Context Learning of Large Multimodal Models with Symbol Demonstration Direct Preference Optimization
November 17, 2024
著者: Hongrui Jia, Chaoya Jiang, Haiyang Xu, Wei Ye, Mengfan Dong, Ming Yan, Ji Zhang, Fei Huang, Shikun Zhang
cs.AI
要旨
言語モデルのスケーリングが進むにつれ、大規模言語モデル(LLM)はインコンテキスト学習(ICL)において新たな能力を発現し、少数のインコンテキストデモンストレーション(ICD)を文脈として付与するだけで言語タスクを解決できるようになった。この進展に触発され、研究者らはこれらの技術を拡張し、ICL能力を備えた大規模マルチモーダルモデル(LMM)の開発を進めてきた。しかし、既存のLMMには重大な課題がある:マルチモーダルなデモンストレーションにおける視覚的文脈を効果的に活用できず、単にテキストのパターンを追従する傾向が見られる。これは、LMMがマルチモーダルなデモンストレーションとモデル出力の間で効果的な整合を達成できていないことを示唆する。この問題を解決するため、我々は記号デモンストレーション直接選好最適化(SymDPO)を提案する。具体的には、SymDPOは従来のマルチモーダルデモンストレーション構築のパラダイムを打破し、インスタンス内のテキスト回答を無作為な記号で置き換えることを目的とする。これによりモデルはデモンストレーション画像を注意深く理解し、画像と記号の関係性を確立することで正しく質問に回答することを強制される。我々は複数のベンチマークで本手法の有効性を検証し、SymDPOによってLMMが事例内のマルチモーダル文脈をより効果的に理解し、この知識を活用して質問に回答できることを実証した。
English
As language models continue to scale, Large Language Models (LLMs) have
exhibited emerging capabilities in In-Context Learning (ICL), enabling them to
solve language tasks by prefixing a few in-context demonstrations (ICDs) as
context. Inspired by these advancements, researchers have extended these
techniques to develop Large Multimodal Models (LMMs) with ICL capabilities.
However, existing LMMs face a critical issue: they often fail to effectively
leverage the visual context in multimodal demonstrations and instead simply
follow textual patterns. This indicates that LMMs do not achieve effective
alignment between multimodal demonstrations and model outputs. To address this
problem, we propose Symbol Demonstration Direct Preference Optimization
(SymDPO). Specifically, SymDPO aims to break the traditional paradigm of
constructing multimodal demonstrations by using random symbols to replace text
answers within instances. This forces the model to carefully understand the
demonstration images and establish a relationship between the images and the
symbols to answer questions correctly. We validate the effectiveness of this
method on multiple benchmarks, demonstrating that with SymDPO, LMMs can more
effectively understand the multimodal context within examples and utilize this
knowledge to answer questions better.