ChatPaper.aiChatPaper

MMBench-Video: ホリスティックなビデオ理解のためのロングフォーム・マルチショットベンチマーク

MMBench-Video: A Long-Form Multi-Shot Benchmark for Holistic Video Understanding

June 20, 2024
著者: Xinyu Fang, Kangrui Mao, Haodong Duan, Xiangyu Zhao, Yining Li, Dahua Lin, Kai Chen
cs.AI

要旨

大規模視覚言語モデル(LVLM)の登場は、特に映像理解におけるマルチモーダルコンテキストへの応用研究を促進してきた。従来のVideoQAベンチマークは、定量的な指標を提供するものの、映像コンテンツの全容を網羅しきれず、モデルの時間的理解を不十分に評価する傾向がある。これらの課題に対処するため、我々はMMBench-Videoを導入した。これは、LVLMの映像理解能力を厳密に評価するために設計された定量的ベンチマークである。MMBench-Videoは、YouTubeからの長時間映像を組み込み、実用的なユースケースを反映した自由形式の質問を採用している。このベンチマークは、モデルの時間的推論スキルを探るために綿密に設計されており、すべての質問は慎重に構築された能力分類に基づいて人手でアノテーションされている。我々はGPT-4を自動評価に採用し、従来のLLMベースの評価よりも優れた精度と堅牢性を実証した。MMBench-Videoを活用して、画像と映像の両方に対応するプロプライエタリおよびオープンソースのLVLMを含む包括的な評価を実施した。MMBench-Videoは、研究コミュニティにとって貴重なリソースであり、LVLMの評価改善を促進し、映像理解分野の進展を触発するものである。MMBench-Videoの評価コードはVLMEvalKitに統合される予定である:https://github.com/open-compass/VLMEvalKit。
English
The advent of large vision-language models (LVLMs) has spurred research into their applications in multi-modal contexts, particularly in video understanding. Traditional VideoQA benchmarks, despite providing quantitative metrics, often fail to encompass the full spectrum of video content and inadequately assess models' temporal comprehension. To address these limitations, we introduce MMBench-Video, a quantitative benchmark designed to rigorously evaluate LVLMs' proficiency in video understanding. MMBench-Video incorporates lengthy videos from YouTube and employs free-form questions, mirroring practical use cases. The benchmark is meticulously crafted to probe the models' temporal reasoning skills, with all questions human-annotated according to a carefully constructed ability taxonomy. We employ GPT-4 for automated assessment, demonstrating superior accuracy and robustness over earlier LLM-based evaluations. Utilizing MMBench-Video, we have conducted comprehensive evaluations that include both proprietary and open-source LVLMs for images and videos. MMBench-Video stands as a valuable resource for the research community, facilitating improved evaluation of LVLMs and catalyzing progress in the field of video understanding. The evalutation code of MMBench-Video will be integrated into VLMEvalKit: https://github.com/open-compass/VLMEvalKit.

Summary

AI-Generated Summary

PDF341December 2, 2024