MMBench-Video: Долгоформатный многокадровый бенчмарк для комплексного понимания видео
MMBench-Video: A Long-Form Multi-Shot Benchmark for Holistic Video Understanding
June 20, 2024
Авторы: Xinyu Fang, Kangrui Mao, Haodong Duan, Xiangyu Zhao, Yining Li, Dahua Lin, Kai Chen
cs.AI
Аннотация
Появление крупных моделей видео-языка (LVLM) побудило исследования их применения в мультимодальных контекстах, особенно в понимании видео. Традиционные бенчмарки VideoQA, несмотря на предоставление количественных метрик, часто не охватывают полный спектр видеоконтента и недостаточно оценивают временное понимание моделей. Для решения этих ограничений мы представляем MMBench-Video, количественный бенчмарк, разработанный для тщательной оценки профессионализма LVLM в понимании видео. MMBench-Video включает длинные видеоролики с YouTube и использует вопросы свободной формы, отражая практические сценарии использования. Бенчмарк тщательно разработан для проверки навыков временного рассуждения моделей, все вопросы аннотированы людьми согласно тщательно разработанной таксономии способностей. Мы используем GPT-4 для автоматической оценки, демонстрируя превосходную точность и надежность по сравнению с ранее использовавшимися оценками на основе LLM. Используя MMBench-Video, мы провели всесторонние оценки, включающие как собственные, так и открытые LVLM для изображений и видео. MMBench-Video является ценным ресурсом для исследовательского сообщества, облегчая улучшение оценки LVLM и стимулируя прогресс в области понимания видео. Код оценки MMBench-Video будет интегрирован в VLMEvalKit: https://github.com/open-compass/VLMEvalKit.
English
The advent of large vision-language models (LVLMs) has spurred research into
their applications in multi-modal contexts, particularly in video
understanding. Traditional VideoQA benchmarks, despite providing quantitative
metrics, often fail to encompass the full spectrum of video content and
inadequately assess models' temporal comprehension. To address these
limitations, we introduce MMBench-Video, a quantitative benchmark designed to
rigorously evaluate LVLMs' proficiency in video understanding. MMBench-Video
incorporates lengthy videos from YouTube and employs free-form questions,
mirroring practical use cases. The benchmark is meticulously crafted to probe
the models' temporal reasoning skills, with all questions human-annotated
according to a carefully constructed ability taxonomy. We employ GPT-4 for
automated assessment, demonstrating superior accuracy and robustness over
earlier LLM-based evaluations. Utilizing MMBench-Video, we have conducted
comprehensive evaluations that include both proprietary and open-source LVLMs
for images and videos. MMBench-Video stands as a valuable resource for the
research community, facilitating improved evaluation of LVLMs and catalyzing
progress in the field of video understanding. The evalutation code of
MMBench-Video will be integrated into VLMEvalKit:
https://github.com/open-compass/VLMEvalKit.Summary
AI-Generated Summary