ChatPaper.aiChatPaper

MAmmoTH-VL: スケールでの指示調整によるマルチモーダル推論の引き出し

MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale

December 6, 2024
著者: Jarvis Guo, Tuney Zheng, Yuelin Bai, Bo Li, Yubo Wang, King Zhu, Yizhi Li, Graham Neubig, Wenhu Chen, Xiang Yue
cs.AI

要旨

オープンソースのマルチモーダル大規模言語モデル(MLLMs)は、さまざまなマルチモーダルタスクで著しい潜在能力を示しています。しかし、既存の指示チューニングデータセットによってその推論能力が制約されており、これらのデータセットは主にVQA、AI2D、ChartQAなどの学術データセットから再利用されています。これらのデータセットは単純なタスクを対象としており、中間の合理的根拠を提供せず、フレーズレベルの回答のみを提供しています。これらの課題に対処するために、CoT推論を誘発するために設計された豊富な中間根拠を持つ大規模なマルチモーダル指示チューニングデータセットを構築するためのスケーラブルで費用対効果の高い方法を紹介します。オープンモデルのみを使用して、多様な推論集中タスクをカバーするために、詳細で忠実な根拠を持つ12Mの指示-応答ペアを含むデータセットを作成します。実験では、このデータセットでMLLMsをトレーニングすることで推論能力が著しく向上し、MathVerse(+8.1%)、MMMU-Pro(+7%)、MuirBench(+13.3%)などのベンチマークで最先端のパフォーマンスが達成されることが示されます。さらに、モデルは非推論ベースのベンチマークで最大4%の改善を示します。削除研究は、データセット構築プロセスにおける書き換えや自己フィルタリングなどの重要な要素の重要性をさらに強調しています。
English
Open-source multimodal large language models (MLLMs) have shown significant potential in a broad range of multimodal tasks. However, their reasoning capabilities remain constrained by existing instruction-tuning datasets, which were predominately repurposed from academic datasets such as VQA, AI2D, and ChartQA. These datasets target simplistic tasks, and only provide phrase-level answers without any intermediate rationales. To address these challenges, we introduce a scalable and cost-effective method to construct a large-scale multimodal instruction-tuning dataset with rich intermediate rationales designed to elicit CoT reasoning. Using only open models, we create a dataset containing 12M instruction-response pairs to cover diverse, reasoning-intensive tasks with detailed and faithful rationales. Experiments demonstrate that training MLLMs on this dataset significantly improves reasoning capabilities, achieving state-of-the-art performance on benchmarks such as MathVerse (+8.1%), MMMU-Pro (+7%), and MuirBench (+13.3%). Additionally, the model demonstrates notable improvements of up to 4% on non-reasoning-based benchmarks. Ablation studies further highlight the importance of key components, such as rewriting and self-filtering, in the dataset construction process.

Summary

AI-Generated Summary

PDF482December 9, 2024