Ragionamento tramite Video: La Prima Valutazione delle Capacità di Ragionamento dei Modelli Video attraverso Compiti di Risoluzione di Labirinti
Reasoning via Video: The First Evaluation of Video Models' Reasoning Abilities through Maze-Solving Tasks
November 19, 2025
Autori: Cheng Yang, Haiyuan Wan, Yiran Peng, Xin Cheng, Zhaoyang Yu, Jiayi Zhang, Junchi Yu, Xinlei Yu, Xiawu Zheng, Dongzhan Zhou, Chenglin Wu
cs.AI
Abstract
I modelli video hanno ottenuto un successo notevole nella generazione di video ad alta fedeltà con dinamiche di movimento coerenti. Analogamente allo sviluppo dalla generazione di testo al ragionamento basato sul testo nella modellazione linguistica, l'evoluzione dei modelli video ci spinge a chiederci: i modelli video possono ragionare tramite la generazione di video? Rispetto al corpus testuale discreto, il video ancorail ragionamento in layout spaziali espliciti e continuità temporale, rappresentando un substrato ideale per il ragionamento spaziale. In questo lavoro, esploriamo il paradigma del ragionamento tramite video e introduciamo VR-Bench, un benchmark completo progettato per valutare sistematicamente le capacità di ragionamento dei modelli video. Basandosi su compiti di risoluzione di labirinti che richiedono intrinsecamente pianificazione spaziale e ragionamento a più fasi, VR-Bench contiene 7.920 video generati proceduralmente su cinque tipologie di labirinto e diversi stili visivi. La nostra analisi empirica dimostra che l'SFT può elicitare efficientemente l'abilità di ragionamento del modello video. I modelli video mostrano una percezione spaziale più forte durante il ragionamento, superando i principali VLM e generalizzando bene attraverso scenari, compiti e livelli di complessità diversi. Scopriamo inoltre un effetto di scaling al momento del test, dove un campionamento diversificato durante l'inferenza migliora l'affidabilità del ragionamento del 10-20%. Questi risultati evidenziano il potenziale unico e la scalabilità del ragionamento tramite video per compiti di ragionamento spaziale.
English
Video Models have achieved remarkable success in high-fidelity video generation with coherent motion dynamics. Analogous to the development from text generation to text-based reasoning in language modeling, the development of video models motivates us to ask: Can video models reason via video generation? Compared with the discrete text corpus, video grounds reasoning in explicit spatial layouts and temporal continuity, which serves as an ideal substrate for spatial reasoning. In this work, we explore the reasoning via video paradigm and introduce VR-Bench -- a comprehensive benchmark designed to systematically evaluate video models' reasoning capabilities. Grounded in maze-solving tasks that inherently require spatial planning and multi-step reasoning, VR-Bench contains 7,920 procedurally generated videos across five maze types and diverse visual styles. Our empirical analysis demonstrates that SFT can efficiently elicit the reasoning ability of video model. Video models exhibit stronger spatial perception during reasoning, outperforming leading VLMs and generalizing well across diverse scenarios, tasks, and levels of complexity. We further discover a test-time scaling effect, where diverse sampling during inference improves reasoning reliability by 10--20%. These findings highlight the unique potential and scalability of reasoning via video for spatial reasoning tasks.