ChatPaper.aiChatPaper

MMBench-Video : Un benchmark multi-séquences de longue durée pour une compréhension holistique des vidéos

MMBench-Video: A Long-Form Multi-Shot Benchmark for Holistic Video Understanding

June 20, 2024
Auteurs: Xinyu Fang, Kangrui Mao, Haodong Duan, Xiangyu Zhao, Yining Li, Dahua Lin, Kai Chen
cs.AI

Résumé

L'émergence des grands modèles vision-langage (LVLMs) a stimulé la recherche sur leurs applications dans des contextes multimodaux, en particulier dans la compréhension vidéo. Les benchmarks traditionnels de VideoQA, bien qu'ils fournissent des métriques quantitatives, échouent souvent à englober l'ensemble du spectre du contenu vidéo et évaluent insuffisamment la compréhension temporelle des modèles. Pour pallier ces limitations, nous introduisons MMBench-Video, un benchmark quantitatif conçu pour évaluer rigoureusement la compétence des LVLMs dans la compréhension vidéo. MMBench-Video intègre des vidéos longues provenant de YouTube et utilise des questions libres, reflétant des cas d'utilisation pratiques. Le benchmark est méticuleusement élaboré pour tester les compétences de raisonnement temporel des modèles, avec toutes les questions annotées manuellement selon une taxonomie des capacités soigneusement construite. Nous utilisons GPT-4 pour l'évaluation automatisée, démontrant une précision et une robustesse supérieures par rapport aux évaluations antérieures basées sur des LLM. En utilisant MMBench-Video, nous avons mené des évaluations exhaustives incluant à la fois des LVLMs propriétaires et open-source pour les images et les vidéos. MMBench-Video constitue une ressource précieuse pour la communauté de recherche, facilitant une meilleure évaluation des LVLMs et catalysant les progrès dans le domaine de la compréhension vidéo. Le code d'évaluation de MMBench-Video sera intégré dans VLMEvalKit : https://github.com/open-compass/VLMEvalKit.
English
The advent of large vision-language models (LVLMs) has spurred research into their applications in multi-modal contexts, particularly in video understanding. Traditional VideoQA benchmarks, despite providing quantitative metrics, often fail to encompass the full spectrum of video content and inadequately assess models' temporal comprehension. To address these limitations, we introduce MMBench-Video, a quantitative benchmark designed to rigorously evaluate LVLMs' proficiency in video understanding. MMBench-Video incorporates lengthy videos from YouTube and employs free-form questions, mirroring practical use cases. The benchmark is meticulously crafted to probe the models' temporal reasoning skills, with all questions human-annotated according to a carefully constructed ability taxonomy. We employ GPT-4 for automated assessment, demonstrating superior accuracy and robustness over earlier LLM-based evaluations. Utilizing MMBench-Video, we have conducted comprehensive evaluations that include both proprietary and open-source LVLMs for images and videos. MMBench-Video stands as a valuable resource for the research community, facilitating improved evaluation of LVLMs and catalyzing progress in the field of video understanding. The evalutation code of MMBench-Video will be integrated into VLMEvalKit: https://github.com/open-compass/VLMEvalKit.

Summary

AI-Generated Summary

PDF341December 2, 2024