ChatPaper.aiChatPaper

Perception Test: Een Diagnostische Benchmark voor Multimodale Videomodellen

Perception Test: A Diagnostic Benchmark for Multimodal Video Models

May 23, 2023
Auteurs: Viorica Pătrăucean, Lucas Smaira, Ankush Gupta, Adrià Recasens Continente, Larisa Markeeva, Dylan Banarse, Skanda Koppula, Joseph Heyward, Mateusz Malinowski, Yi Yang, Carl Doersch, Tatiana Matejovicova, Yury Sulsky, Antoine Miech, Alex Frechette, Hanna Klimczak, Raphael Koster, Junlin Zhang, Stephanie Winkler, Yusuf Aytar, Simon Osindero, Dima Damen, Andrew Zisserman, João Carreira
cs.AI

Samenvatting

Wij stellen een nieuwe multimodale videobenchmark voor - de Perception Test - om de waarnemings- en redeneervaardigheden van vooraf getrainde multimodale modellen (bijv. Flamingo, BEiT-3 of GPT-4) te evalueren. In tegenstelling tot bestaande benchmarks die zich richten op computationele taken (bijv. classificatie, detectie of tracking), richt de Perception Test zich op vaardigheden (Geheugen, Abstractie, Natuurkunde, Semantiek) en soorten redenering (beschrijvend, verklarend, voorspellend, contrafeitelijk) over video-, audio- en tekstmodaliteiten, om een uitgebreid en efficiënt evaluatie-instrument te bieden. De benchmark test vooraf getrainde modellen op hun transfercapaciteiten, in een zero-shot / few-shot of beperkte fine-tuning-regime. Voor deze doeleinden introduceert de Perception Test 11.6k real-world video's, gemiddeld 23 seconden lang, ontworpen om perceptueel interessante situaties te tonen, gefilmd door ongeveer 100 deelnemers wereldwijd. De video's zijn dicht geannoteerd met zes soorten labels (meerkeuze- en gegronde video-vraag-antwoorden, object- en puntsporen, temporele actie- en geluidssegmenten), waardoor zowel taal- als niet-taal evaluaties mogelijk zijn. De fine-tuning- en validatiesplitsingen van de benchmark zijn publiekelijk beschikbaar (CC-BY licentie), naast een challengeserver met een afgezonderde testsplitsing. Menselijke basislijnresultaten vergeleken met state-of-the-art video QA-modellen tonen een significant prestatieverschil (91,4% vs 43,6%), wat suggereert dat er aanzienlijke ruimte is voor verbetering in multimodaal videobegrip. Dataset, basislijntoepassingen en challengeserver zijn beschikbaar op https://github.com/deepmind/perception_test
English
We propose a novel multimodal video benchmark - the Perception Test - to evaluate the perception and reasoning skills of pre-trained multimodal models (e.g. Flamingo, BEiT-3, or GPT-4). Compared to existing benchmarks that focus on computational tasks (e.g. classification, detection or tracking), the Perception Test focuses on skills (Memory, Abstraction, Physics, Semantics) and types of reasoning (descriptive, explanatory, predictive, counterfactual) across video, audio, and text modalities, to provide a comprehensive and efficient evaluation tool. The benchmark probes pre-trained models for their transfer capabilities, in a zero-shot / few-shot or limited finetuning regime. For these purposes, the Perception Test introduces 11.6k real-world videos, 23s average length, designed to show perceptually interesting situations, filmed by around 100 participants worldwide. The videos are densely annotated with six types of labels (multiple-choice and grounded video question-answers, object and point tracks, temporal action and sound segments), enabling both language and non-language evaluations. The fine-tuning and validation splits of the benchmark are publicly available (CC-BY license), in addition to a challenge server with a held-out test split. Human baseline results compared to state-of-the-art video QA models show a significant gap in performance (91.4% vs 43.6%), suggesting that there is significant room for improvement in multimodal video understanding. Dataset, baselines code, and challenge server are available at https://github.com/deepmind/perception_test
PDF10December 15, 2024