ChatPaper.aiChatPaper

Um Conjunto Muito Abrangente para Raciocínio em Vídeo

A Very Big Video Reasoning Suite

February 23, 2026
Autores: Maijunxian Wang, Ruisi Wang, Juyi Lin, Ran Ji, Thaddäus Wiedemer, Qingying Gao, Dezhi Luo, Yaoyao Qian, Lianyu Huang, Zelong Hong, Jiahui Ge, Qianli Ma, Hang He, Yifan Zhou, Lingzi Guo, Lantao Mei, Jiachen Li, Hanwen Xing, Tianqi Zhao, Fengyuan Yu, Weihang Xiao, Yizheng Jiao, Jianheng Hou, Danyang Zhang, Pengcheng Xu, Boyang Zhong, Zehong Zhao, Gaoyun Fang, John Kitaoka, Yile Xu, Hua Xu, Kenton Blacutt, Tin Nguyen, Siyuan Song, Haoran Sun, Shaoyue Wen, Linyang He, Runming Wang, Yanzhi Wang, Mengyue Yang, Ziqiao Ma, Raphaël Millière, Freda Shi, Nuno Vasconcelos, Daniel Khashabi, Alan Yuille, Yilun Du, Ziming Liu, Bo Li, Dahua Lin, Ziwei Liu, Vikash Kumar, Yijiang Li, Lei Yang, Zhongang Cai, Hokin Deng
cs.AI

Resumo

Os rápidos avanços nos modelos de vídeo têm-se concentrado sobretudo na qualidade visual, deixando as suas capacidades de raciocínio pouco exploradas. O raciocínio em vídeo ancora a inteligência em ambientes visuais espaciotemporalmente consistentes que vão além do que o texto pode captar naturalmente, permitindo um raciocínio intuitivo sobre a estrutura espaciotemporal, como continuidade, interação e causalidade. No entanto, o estudo sistemático do raciocínio em vídeo e do seu comportamento de escalabilidade é dificultado pela falta de dados de treino em grande escala. Para colmatar esta lacuna, apresentamos o *Very Big Video Reasoning (VBVR) Dataset*, um recurso de escala sem precedentes que abrange 200 tarefas de raciocínio criteriosamente selecionadas, seguindo uma taxonomia fundamentada, e mais de um milhão de *clips* de vídeo, aproximadamente três ordens de grandeza maior do que os conjuntos de dados existentes. Apresentamos ainda o VBVR-Bench, uma estrutura de avaliação verificável que vai além da avaliação baseada em modelos, incorporando sistemas de pontuação baseados em regras e alinhados com a avaliação humana, permitindo um diagnóstico reproduzível e interpretável das capacidades de raciocínio em vídeo. Aproveitando o conjunto VBVR, realizamos um dos primeiros estudos de escalabilidade em grande escala sobre raciocínio em vídeo e observamos sinais precoces de generalização emergente para tarefas de raciocínio não vistas durante o treino. Em conjunto, o VBVR estabelece uma base para a próxima fase de investigação em raciocínio em vídeo generalizável. Os dados, o *kit* de ferramentas de avaliação comparativa e os modelos estão publicamente disponíveis em https://video-reason.com/.
English
Rapid progress in video models has largely focused on visual quality, leaving their reasoning capabilities underexplored. Video reasoning grounds intelligence in spatiotemporally consistent visual environments that go beyond what text can naturally capture, enabling intuitive reasoning over spatiotemporal structure such as continuity, interaction, and causality. However, systematically studying video reasoning and its scaling behavior is hindered by the lack of large-scale training data. To address this gap, we introduce the Very Big Video Reasoning (VBVR) Dataset, an unprecedentedly large-scale resource spanning 200 curated reasoning tasks following a principled taxonomy and over one million video clips, approximately three orders of magnitude larger than existing datasets. We further present VBVR-Bench, a verifiable evaluation framework that moves beyond model-based judging by incorporating rule-based, human-aligned scorers, enabling reproducible and interpretable diagnosis of video reasoning capabilities. Leveraging the VBVR suite, we conduct one of the first large-scale scaling studies of video reasoning and observe early signs of emergent generalization to unseen reasoning tasks. Together, VBVR lays a foundation for the next stage of research in generalizable video reasoning. The data, benchmark toolkit, and models are publicly available at https://video-reason.com/ .
PDF5174March 28, 2026