GGBench: Un Benchmark di Ragionamento Generativo Geometrico per Modelli Multimodali Unificati
GGBench: A Geometric Generative Reasoning Benchmark for Unified Multimodal Models
November 14, 2025
Autori: Jingxuan Wei, Caijun Jia, Xi Bai, Xinglong Xu, Siyuan Li, Linzhuang Sun, Bihui Yu, Conghui He, Lijun Wu, Cheng Tan
cs.AI
Abstract
L'avvento dei Modelli Multimodali Unificati (UMM) segnala un cambio di paradigma nell'intelligenza artificiale, spostandosi dalla percezione passiva alla generazione attiva e cross-modale. Nonostante la loro capacità senza precedenti di sintetizzare informazioni, persiste una lacuna critica nella valutazione: i benchmark esistenti valutano principalmente la comprensione discriminatoria o la generazione di immagini non vincolata separatamente, non riuscendo a misurare il processo cognitivo integrato del ragionamento generativo. Per colmare questa lacuna, proponiamo che la costruzione geometrica costituisca un banco di prova ideale poiché richiede intrinsecamente una fusione di comprensione linguistica e generazione visiva precisa. Introduciamo GGBench, un benchmark progettato specificamente per valutare il ragionamento generativo geometrico. Fornisce un quadro completo per diagnosticare sistematicamente la capacità di un modello non solo di comprendere e ragionare, ma di costruire attivamente una soluzione, stabilendo così uno standard più rigoroso per la prossima generazione di sistemi intelligenti. Sito web del progetto: https://opendatalab-raiser.github.io/GGBench/.
English
The advent of Unified Multimodal Models (UMMs) signals a paradigm shift in artificial intelligence, moving from passive perception to active, cross-modal generation. Despite their unprecedented ability to synthesize information, a critical gap persists in evaluation: existing benchmarks primarily assess discriminative understanding or unconstrained image generation separately, failing to measure the integrated cognitive process of generative reasoning. To bridge this gap, we propose that geometric construction provides an ideal testbed as it inherently demands a fusion of language comprehension and precise visual generation. We introduce GGBench, a benchmark designed specifically to evaluate geometric generative reasoning. It provides a comprehensive framework for systematically diagnosing a model's ability to not only understand and reason but to actively construct a solution, thereby setting a more rigorous standard for the next generation of intelligent systems. Project website: https://opendatalab-raiser.github.io/GGBench/.