Schlussfolgern per Video: Die erste Bewertung der Denkfähigkeiten von Videomodellen durch Labyrinth-Lösungsaufgaben
Reasoning via Video: The First Evaluation of Video Models' Reasoning Abilities through Maze-Solving Tasks
November 19, 2025
papers.authors: Cheng Yang, Haiyuan Wan, Yiran Peng, Xin Cheng, Zhaoyang Yu, Jiayi Zhang, Junchi Yu, Xinlei Yu, Xiawu Zheng, Dongzhan Zhou, Chenglin Wu
cs.AI
papers.abstract
Videomodelle haben bemerkenswerte Erfolge bei der Erzeugung hochwertiger Videos mit kohärenter Bewegungsdynamik erzielt. Analog zur Entwicklung von der Texterzeugung zum textbasierten Schlussfolgern im Sprachmodellierung motiviert uns die Entwicklung von Videomodellen zu der Frage: Können Videomodelle durch Videogenerierung schlussfolgern? Im Vergleich zu diskreten Textkorpora verankert Video das Schlussfolgern in expliziten räumlichen Anordnungen und zeitlicher Kontinuität, was es zu einem idealen Substrat für räumliches Reasoning macht. In dieser Arbeit untersuchen wir das Paradigma des Schließens per Video und stellen VR-Bench vor – einen umfassenden Benchmark, der entwickelt wurde, um die Reasoning-Fähigkeiten von Videomodellen systematisch zu evaluieren. Basierend auf Labyrinth-Lösungsaufgaben, die inhärent räumliche Planung und mehrstufiges Schlussfolgern erfordern, enthält VR-Bench 7.920 prozedural generierte Videos über fünf Labyrinth-Typen und diverse visuelle Stile hinweg. Unsere empirische Analyse zeigt, dass SFT (Supervised Fine-Tuning) die Reasoning-Fähigkeit von Videomodellen effizient hervorrufen kann. Videomodelle zeigen während des Reasoning eine stärkere räumliche Wahrnehmung, übertreffen führende VLMs (Vision-Language Models) und generalisieren gut über verschiedene Szenarien, Aufgaben und Komplexitätsgrade hinweg. Wir entdecken weiterhin einen Test-Time-Scaling-Effekt, bei dem diversives Sampling während der Inferenz die Zuverlässigkeit des Reasoning um 10–20 % verbessert. Diese Ergebnisse unterstreichen das einzigartige Potenzial und die Skalierbarkeit des Schließens per Video für räumliche Reasoning-Aufgaben.
English
Video Models have achieved remarkable success in high-fidelity video generation with coherent motion dynamics. Analogous to the development from text generation to text-based reasoning in language modeling, the development of video models motivates us to ask: Can video models reason via video generation? Compared with the discrete text corpus, video grounds reasoning in explicit spatial layouts and temporal continuity, which serves as an ideal substrate for spatial reasoning. In this work, we explore the reasoning via video paradigm and introduce VR-Bench -- a comprehensive benchmark designed to systematically evaluate video models' reasoning capabilities. Grounded in maze-solving tasks that inherently require spatial planning and multi-step reasoning, VR-Bench contains 7,920 procedurally generated videos across five maze types and diverse visual styles. Our empirical analysis demonstrates that SFT can efficiently elicit the reasoning ability of video model. Video models exhibit stronger spatial perception during reasoning, outperforming leading VLMs and generalizing well across diverse scenarios, tasks, and levels of complexity. We further discover a test-time scaling effect, where diverse sampling during inference improves reasoning reliability by 10--20%. These findings highlight the unique potential and scalability of reasoning via video for spatial reasoning tasks.