MMBench-Video: Un Benchmark a Lungo Termine e Multi-Shot per la Comprensione Olistica dei Video
MMBench-Video: A Long-Form Multi-Shot Benchmark for Holistic Video Understanding
June 20, 2024
Autori: Xinyu Fang, Kangrui Mao, Haodong Duan, Xiangyu Zhao, Yining Li, Dahua Lin, Kai Chen
cs.AI
Abstract
L'avvento dei grandi modelli visione-linguaggio (LVLM) ha stimolato la ricerca sulle loro applicazioni in contesti multimodali, in particolare nella comprensione video. I tradizionali benchmark VideoQA, nonostante forniscano metriche quantitative, spesso non riescono a coprire l'intero spettro dei contenuti video e valutano in modo inadeguato la comprensione temporale dei modelli. Per affrontare queste limitazioni, introduciamo MMBench-Video, un benchmark quantitativo progettato per valutare rigorosamente la competenza degli LVLM nella comprensione video. MMBench-Video incorpora video lunghi da YouTube e utilizza domande a risposta libera, riflettendo casi d'uso pratici. Il benchmark è stato meticolosamente progettato per sondare le capacità di ragionamento temporale dei modelli, con tutte le domande annotate manualmente secondo una tassonomia delle abilità accuratamente costruita. Utilizziamo GPT-4 per la valutazione automatizzata, dimostrando una precisione e robustezza superiori rispetto alle precedenti valutazioni basate su LLM. Utilizzando MMBench-Video, abbiamo condotto valutazioni complete che includono sia LVLM proprietari che open-source per immagini e video. MMBench-Video si pone come una risorsa preziosa per la comunità di ricerca, facilitando una migliore valutazione degli LVLM e catalizzando i progressi nel campo della comprensione video. Il codice di valutazione di MMBench-Video sarà integrato in VLMEvalKit: https://github.com/open-compass/VLMEvalKit.
English
The advent of large vision-language models (LVLMs) has spurred research into
their applications in multi-modal contexts, particularly in video
understanding. Traditional VideoQA benchmarks, despite providing quantitative
metrics, often fail to encompass the full spectrum of video content and
inadequately assess models' temporal comprehension. To address these
limitations, we introduce MMBench-Video, a quantitative benchmark designed to
rigorously evaluate LVLMs' proficiency in video understanding. MMBench-Video
incorporates lengthy videos from YouTube and employs free-form questions,
mirroring practical use cases. The benchmark is meticulously crafted to probe
the models' temporal reasoning skills, with all questions human-annotated
according to a carefully constructed ability taxonomy. We employ GPT-4 for
automated assessment, demonstrating superior accuracy and robustness over
earlier LLM-based evaluations. Utilizing MMBench-Video, we have conducted
comprehensive evaluations that include both proprietary and open-source LVLMs
for images and videos. MMBench-Video stands as a valuable resource for the
research community, facilitating improved evaluation of LVLMs and catalyzing
progress in the field of video understanding. The evalutation code of
MMBench-Video will be integrated into VLMEvalKit:
https://github.com/open-compass/VLMEvalKit.