ChatPaper.aiChatPaper

Razonamiento a través del Video: Primera Evaluación de las Capacidades de Razonamiento de Modelos de Video mediante Tareas de Resolución de Laberintos

Reasoning via Video: The First Evaluation of Video Models' Reasoning Abilities through Maze-Solving Tasks

November 19, 2025
Autores: Cheng Yang, Haiyuan Wan, Yiran Peng, Xin Cheng, Zhaoyang Yu, Jiayi Zhang, Junchi Yu, Xinlei Yu, Xiawu Zheng, Dongzhan Zhou, Chenglin Wu
cs.AI

Resumen

Los modelos de video han logrado un éxito notable en la generación de vídeos de alta fidelidad con dinámicas de movimiento coherentes. De manera análoga al desarrollo desde la generación de texto hasta el razonamiento basado en texto en el modelado del lenguaje, el desarrollo de modelos de video nos motiva a preguntar: ¿Pueden los modelos de video razonar mediante la generación de vídeos? En comparación con el corpus de texto discreto, el video fundamenta el razonamiento en disposiciones espaciales explícitas y continuidad temporal, lo que lo convierte en un sustrato ideal para el razonamiento espacial. En este trabajo, exploramos el paradigma de razonamiento mediante video e introducimos VR-Bench, un benchmark integral diseñado para evaluar sistemáticamente las capacidades de razonamiento de los modelos de video. Fundamentado en tareas de resolución de laberintos que requieren inherentemente planificación espacial y razonamiento multi-paso, VR-Bench contiene 7.920 vídeos generados proceduralmente en cinco tipos de laberintos y diversos estilos visuales. Nuestro análisis empírico demuestra que el Fine-Tuning Supervisado (SFT) puede elicitar eficientemente la capacidad de razonamiento del modelo de video. Los modelos de video exhiben una percepción espacial más sólida durante el razonamiento, superando a los principales Modelos de Lenguaje Visual (VLM) y generalizando bien en diversos escenarios, tareas y niveles de complejidad. Además, descubrimos un efecto de escalado en tiempo de prueba, donde el muestreo diverso durante la inferencia mejora la confiabilidad del razonamiento en un 10-20%. Estos hallazgos resaltan el potencial único y la escalabilidad del razonamiento mediante video para tareas de razonamiento espacial.
English
Video Models have achieved remarkable success in high-fidelity video generation with coherent motion dynamics. Analogous to the development from text generation to text-based reasoning in language modeling, the development of video models motivates us to ask: Can video models reason via video generation? Compared with the discrete text corpus, video grounds reasoning in explicit spatial layouts and temporal continuity, which serves as an ideal substrate for spatial reasoning. In this work, we explore the reasoning via video paradigm and introduce VR-Bench -- a comprehensive benchmark designed to systematically evaluate video models' reasoning capabilities. Grounded in maze-solving tasks that inherently require spatial planning and multi-step reasoning, VR-Bench contains 7,920 procedurally generated videos across five maze types and diverse visual styles. Our empirical analysis demonstrates that SFT can efficiently elicit the reasoning ability of video model. Video models exhibit stronger spatial perception during reasoning, outperforming leading VLMs and generalizing well across diverse scenarios, tasks, and levels of complexity. We further discover a test-time scaling effect, where diverse sampling during inference improves reasoning reliability by 10--20%. These findings highlight the unique potential and scalability of reasoning via video for spatial reasoning tasks.
PDF734December 2, 2025