ChatPaper.aiChatPaper

MORSE-500: Un punto de referencia de video controlable programáticamente para evaluar el razonamiento multimodal bajo estrés

MORSE-500: A Programmatically Controllable Video Benchmark to Stress-Test Multimodal Reasoning

June 5, 2025
Autores: Zikui Cai, Andrew Wang, Anirudh Satheesh, Ankit Nakhawa, Hyunwoo Jae, Keenan Powell, Minghui Liu, Neel Jay, Sungbin Oh, Xiyao Wang, Yongyuan Liang, Tom Goldstein, Furong Huang
cs.AI

Resumen

A pesar de los rápidos avances en los modelos de visión y lenguaje (VLMs), los benchmarks actuales para el razonamiento multimodal presentan deficiencias en tres dimensiones clave. En primer lugar, dependen en gran medida de imágenes estáticas, lo que no logra capturar la complejidad temporal de los entornos del mundo real. En segundo lugar, se centran de manera limitada en la resolución de problemas matemáticos, descuidando el espectro más amplio de habilidades de razonamiento —incluyendo capacidades abstractas, físicas, de planificación, espaciales y temporales— necesarias para una inteligencia multimodal robusta. En tercer lugar, muchos benchmarks se saturan rápidamente, ofreciendo un margen limitado para diagnosticar modos de fallo o medir el progreso continuo. Presentamos MORSE-500 (Multimodal Reasoning Stress-test Environment), un benchmark de video compuesto por 500 clips completamente guionizados con preguntas integradas que abarcan seis categorías complementarias de razonamiento. Cada instancia se genera de manera programática utilizando scripts deterministas en Python (a través de Manim, Matplotlib, MoviePy), modelos generativos de video y material real seleccionado. Este diseño basado en scripts permite un control detallado sobre la complejidad visual, la densidad de distractores y la dinámica temporal, lo que posibilita escalar sistemáticamente la dificultad a medida que los modelos mejoran. A diferencia de los benchmarks estáticos que se vuelven obsoletos una vez saturados, MORSE-500 está diseñado para evolucionar: su pipeline de generación controlable permite la creación de nuevas instancias arbitrariamente desafiantes, lo que lo hace ideal para someter a prueba a los modelos de próxima generación. Experimentos iniciales con sistemas de última generación —incluyendo varias versiones de Gemini 2.5 Pro y OpenAI o3, que representan los más avanzados disponibles en ese momento, junto con modelos de código abierto robustos— revelan brechas de rendimiento significativas en todas las categorías, con déficits particularmente grandes en tareas abstractas y de planificación. Publicamos el conjunto de datos completo, los scripts de generación y el sistema de evaluación para apoyar una investigación en razonamiento multimodal transparente, reproducible y orientada al futuro.
English
Despite rapid advances in vision-language models (VLMs), current benchmarks for multimodal reasoning fall short in three key dimensions. First, they overwhelmingly rely on static images, failing to capture the temporal complexity of real-world environments. Second, they narrowly focus on mathematical problem-solving, neglecting the broader spectrum of reasoning skills -- including abstract, physical, planning, spatial, and temporal capabilities -- required for robust multimodal intelligence. Third, many benchmarks quickly saturate, offering limited headroom for diagnosing failure modes or measuring continued progress. We introduce MORSE-500 (Multimodal Reasoning Stress-test Environment), a video benchmark composed of 500 fully scripted clips with embedded questions spanning six complementary reasoning categories. Each instance is programmatically generated using deterministic Python scripts (via Manim, Matplotlib, MoviePy), generative video models, and curated real footage. This script-driven design allows fine-grained control over visual complexity, distractor density, and temporal dynamics -- enabling difficulty to be scaled systematically as models improve. Unlike static benchmarks that become obsolete once saturated, MORSE-500 is built to evolve: its controllable generation pipeline supports the creation of arbitrarily challenging new instances, making it ideally suited for stress-testing next-generation models. Initial experiments with state-of-the-art systems -- including various Gemini 2.5 Pro and OpenAI o3 which represent the strongest available at the time, alongside strong open-source models -- reveal substantial performance gaps across all categories, with particularly large deficits in abstract and planning tasks. We release the full dataset, generation scripts, and evaluation harness to support transparent, reproducible, and forward-looking multimodal reasoning research.
PDF322June 9, 2025