GGBench: Un Benchmark de Razonamiento Generativo Geométrico para Modelos Multimodales Unificados
GGBench: A Geometric Generative Reasoning Benchmark for Unified Multimodal Models
November 14, 2025
Autores: Jingxuan Wei, Caijun Jia, Xi Bai, Xinglong Xu, Siyuan Li, Linzhuang Sun, Bihui Yu, Conghui He, Lijun Wu, Cheng Tan
cs.AI
Resumen
El advenimiento de los Modelos Multimodales Unificados (UMMs) marca un cambio de paradigma en la inteligencia artificial, transitando desde la percepción pasiva hacia la generación activa y cross-modal. A pesar de su capacidad sin precedentes para sintetizar información, persiste una brecha crítica en la evaluación: los benchmarks existentes evalúan principalmente la comprensión discriminativa o la generación de imágenes sin restricciones por separado, sin medir el proceso cognitivo integrado del razonamiento generativo. Para cerrar esta brecha, proponemos que la construcción geométrica constituye un banco de pruebas ideal, ya que requiere inherentemente una fusión de comprensión lingüística y generación visual precisa. Presentamos GGBench, un benchmark diseñado específicamente para evaluar el razonamiento generativo geométrico. Este proporciona un marco integral para diagnosticar sistemáticamente la capacidad de un modelo no solo para comprender y razonar, sino para construir activamente una solución, estableciendo así un estándar más riguroso para la próxima generación de sistemas inteligentes. Sitio web del proyecto: https://opendatalab-raiser.github.io/GGBench/.
English
The advent of Unified Multimodal Models (UMMs) signals a paradigm shift in artificial intelligence, moving from passive perception to active, cross-modal generation. Despite their unprecedented ability to synthesize information, a critical gap persists in evaluation: existing benchmarks primarily assess discriminative understanding or unconstrained image generation separately, failing to measure the integrated cognitive process of generative reasoning. To bridge this gap, we propose that geometric construction provides an ideal testbed as it inherently demands a fusion of language comprehension and precise visual generation. We introduce GGBench, a benchmark designed specifically to evaluate geometric generative reasoning. It provides a comprehensive framework for systematically diagnosing a model's ability to not only understand and reason but to actively construct a solution, thereby setting a more rigorous standard for the next generation of intelligent systems. Project website: https://opendatalab-raiser.github.io/GGBench/.