GGBench: Ein geometrischer Benchmark für generatives Denken zur Bewertung einheitlicher multimodaler Modelle
GGBench: A Geometric Generative Reasoning Benchmark for Unified Multimodal Models
November 14, 2025
papers.authors: Jingxuan Wei, Caijun Jia, Xi Bai, Xinglong Xu, Siyuan Li, Linzhuang Sun, Bihui Yu, Conghui He, Lijun Wu, Cheng Tan
cs.AI
papers.abstract
Das Aufkommen einheitlicher multimodaler Modelle (UMMs) markiert einen Paradigmenwechsel in der künstlichen Intelligenz, der von passiver Wahrnehmung zu aktiver, kreuzmodaler Generierung übergeht. Trotz ihrer beispiellosen Fähigkeit, Informationen zu synthetisieren, besteht eine kritische Lücke in der Evaluation: Bestehende Benchmarks bewerten primär diskriminatives Verständnis oder unbegrenzte Bildgenerierung separat und erfassen nicht den integrierten kognitiven Prozess des generativen Schlussfolgerns. Um diese Lücke zu schließen, schlagen wir vor, dass geometrische Konstruktion ein ideales Testfeld bietet, da sie inhärent eine Fusion von Sprachverständnis und präziser visueller Generierung erfordert. Wir stellen GGBench vor, einen Benchmark, der speziell zur Bewertung geometrischen generativen Schlussfolgerns entwickelt wurde. Er bietet einen umfassenden Rahmen zur systematischen Diagnose der Fähigkeit eines Modells, nicht nur zu verstehen und zu schlussfolgern, sondern aktiv eine Lösung zu konstruieren, und setzt damit einen rigoroseren Standard für die nächste Generation intelligenter Systeme. Projektwebsite: https://opendatalab-raiser.github.io/GGBench/.
English
The advent of Unified Multimodal Models (UMMs) signals a paradigm shift in artificial intelligence, moving from passive perception to active, cross-modal generation. Despite their unprecedented ability to synthesize information, a critical gap persists in evaluation: existing benchmarks primarily assess discriminative understanding or unconstrained image generation separately, failing to measure the integrated cognitive process of generative reasoning. To bridge this gap, we propose that geometric construction provides an ideal testbed as it inherently demands a fusion of language comprehension and precise visual generation. We introduce GGBench, a benchmark designed specifically to evaluate geometric generative reasoning. It provides a comprehensive framework for systematically diagnosing a model's ability to not only understand and reason but to actively construct a solution, thereby setting a more rigorous standard for the next generation of intelligent systems. Project website: https://opendatalab-raiser.github.io/GGBench/.