Een Zeer Uitgebreide Suite voor Videoredenering
A Very Big Video Reasoning Suite
February 23, 2026
Auteurs: Maijunxian Wang, Ruisi Wang, Juyi Lin, Ran Ji, Thaddäus Wiedemer, Qingying Gao, Dezhi Luo, Yaoyao Qian, Lianyu Huang, Zelong Hong, Jiahui Ge, Qianli Ma, Hang He, Yifan Zhou, Lingzi Guo, Lantao Mei, Jiachen Li, Hanwen Xing, Tianqi Zhao, Fengyuan Yu, Weihang Xiao, Yizheng Jiao, Jianheng Hou, Danyang Zhang, Pengcheng Xu, Boyang Zhong, Zehong Zhao, Gaoyun Fang, John Kitaoka, Yile Xu, Hua Xu, Kenton Blacutt, Tin Nguyen, Siyuan Song, Haoran Sun, Shaoyue Wen, Linyang He, Runming Wang, Yanzhi Wang, Mengyue Yang, Ziqiao Ma, Raphaël Millière, Freda Shi, Nuno Vasconcelos, Daniel Khashabi, Alan Yuille, Yilun Du, Ziming Liu, Bo Li, Dahua Lin, Ziwei Liu, Vikash Kumar, Yijiang Li, Lei Yang, Zhongang Cai, Hokin Deng
cs.AI
Samenvatting
Snelle vooruitgang in videomodellen heeft zich grotendeels gericht op visuele kwaliteit, waardoor hun redeneervermogen onderbelicht is gebleven. Videoredenatie verankert intelligentie in ruimtelijk-tijdelijk consistente visuele omgevingen die verder gaan dan wat tekst van nature kan vastleggen, en maakt intuïtief redeneren mogelijk over ruimtelijk-tijdelijke structuren zoals continuïteit, interactie en causaliteit. Systematische studie van videoredenatie en zijn schaalgedrag wordt echter belemmerd door een gebrek aan grootschalige trainingsdata. Om dit hiaat op te vullen, introduceren we de Very Big Video Reasoning (VBVR) Dataset, een ongekend grootschalige bron met 200 geselecteerde redeneertaken volgens een principiële taxonomie en meer dan een miljoen videofragmenten – ongeveer drie grootteordes groter dan bestaande datasets. Verder presenteren we VBVR-Bench, een verifieerbaar evaluatieraamwerk dat verder gaat dan modelgebaseerd beoordelen door regelgebaseerde, op mensen afgestemde scorers te incorporeren, wat reproduceerbare en interpreteerbare diagnostiek van videoredenatievermogen mogelijk maakt. Door gebruik te maken van de VBVR-suite voeren we een van de eerste grootschalige schaalstudies naar videoredenatie uit en observeren we vroege tekenen van emergentie – generalisatie naar onzichtbare redeneertaken. Samen legt VBVR een fundament voor de volgende onderzoeksfase in generaliseerbare videoredenatie. De data, benchmarktoolkit en modellen zijn openbaar beschikbaar op https://video-reason.com/.
English
Rapid progress in video models has largely focused on visual quality, leaving their reasoning capabilities underexplored. Video reasoning grounds intelligence in spatiotemporally consistent visual environments that go beyond what text can naturally capture, enabling intuitive reasoning over spatiotemporal structure such as continuity, interaction, and causality. However, systematically studying video reasoning and its scaling behavior is hindered by the lack of large-scale training data. To address this gap, we introduce the Very Big Video Reasoning (VBVR) Dataset, an unprecedentedly large-scale resource spanning 200 curated reasoning tasks following a principled taxonomy and over one million video clips, approximately three orders of magnitude larger than existing datasets. We further present VBVR-Bench, a verifiable evaluation framework that moves beyond model-based judging by incorporating rule-based, human-aligned scorers, enabling reproducible and interpretable diagnosis of video reasoning capabilities. Leveraging the VBVR suite, we conduct one of the first large-scale scaling studies of video reasoning and observe early signs of emergent generalization to unseen reasoning tasks. Together, VBVR lays a foundation for the next stage of research in generalizable video reasoning. The data, benchmark toolkit, and models are publicly available at https://video-reason.com/ .