Redeneren via Video: De Eerste Evaluatie van het Redeneervermogen van Videomodellen door middel van Doolhof-Oplossende Taken
Reasoning via Video: The First Evaluation of Video Models' Reasoning Abilities through Maze-Solving Tasks
November 19, 2025
Auteurs: Cheng Yang, Haiyuan Wan, Yiran Peng, Xin Cheng, Zhaoyang Yu, Jiayi Zhang, Junchi Yu, Xinlei Yu, Xiawu Zheng, Dongzhan Zhou, Chenglin Wu
cs.AI
Samenvatting
Videomodellen hebben opmerkelijke successen geboekt in het genereren van hoogwaardige video's met coherente bewegingsdynamiek. Analoog aan de ontwikkeling van tekstgeneratie naar tekstgebaseerd redeneren in taalmodellering, zet de ontwikkeling van videomodellen ons aan het denken: Kunnen videomodellen redeneren via videogeneratie? Vergeleken met discrete tekstcorpora, verankert video het redeneren in expliciete ruimtelijke structuren en temporele continuïteit, wat het een ideaal substraat maakt voor ruimtelijk redeneren. In dit werk verkennen we het paradigma van redeneren via video en introduceren we VR-Bench – een uitgebreide benchmark ontworpen om de redeneervaardigheden van videomodellen systematisch te evalueren. Gebaseerd op doolhof-oplossingstaken die inherent ruimtelijke planning en meerstapsredenering vereisen, bevat VR-Bench 7.920 procedureel gegenereerde video's verdeeld over vijf doolhoftypes en diverse visuele stijlen. Onze empirische analyse toont aan dat SFT (Supervised Fine-Tuning) de redeneervaardigheid van videomodellen efficiënt kan aanwakkeren. Videomodellen vertonen een sterker ruimtelijk perceptievermogen tijdens het redeneren, presteren beter dan toonaangevende Vision-Language Models (VLM's) en generaliseren goed over diverse scenario's, taken en complexiteitsniveaus. Verder ontdekken we een test-time schaaleffect, waarbij diverse steekproefname tijdens de inferentie de betrouwbaarheid van het redeneren met 10–20% verbetert. Deze bevindingen benadrukken het unieke potentieel en de schaalbaarheid van redeneren via video voor ruimtelijke redeneertaken.
English
Video Models have achieved remarkable success in high-fidelity video generation with coherent motion dynamics. Analogous to the development from text generation to text-based reasoning in language modeling, the development of video models motivates us to ask: Can video models reason via video generation? Compared with the discrete text corpus, video grounds reasoning in explicit spatial layouts and temporal continuity, which serves as an ideal substrate for spatial reasoning. In this work, we explore the reasoning via video paradigm and introduce VR-Bench -- a comprehensive benchmark designed to systematically evaluate video models' reasoning capabilities. Grounded in maze-solving tasks that inherently require spatial planning and multi-step reasoning, VR-Bench contains 7,920 procedurally generated videos across five maze types and diverse visual styles. Our empirical analysis demonstrates that SFT can efficiently elicit the reasoning ability of video model. Video models exhibit stronger spatial perception during reasoning, outperforming leading VLMs and generalizing well across diverse scenarios, tasks, and levels of complexity. We further discover a test-time scaling effect, where diverse sampling during inference improves reasoning reliability by 10--20%. These findings highlight the unique potential and scalability of reasoning via video for spatial reasoning tasks.