ChatPaper.aiChatPaper

GGBench: Бенчмарк геометрического генеративного мышления для унифицированных мультимодальных моделей

GGBench: A Geometric Generative Reasoning Benchmark for Unified Multimodal Models

November 14, 2025
Авторы: Jingxuan Wei, Caijun Jia, Xi Bai, Xinglong Xu, Siyuan Li, Linzhuang Sun, Bihui Yu, Conghui He, Lijun Wu, Cheng Tan
cs.AI

Аннотация

Появление унифицированных мутимодальных моделей (UMM) знаменует смену парадигмы в искусственном интеллекте — переход от пассивного восприятия к активному кросс-модальному генеративному процессу. Несмотря на их беспрецедентную способность синтезировать информацию, в области оценки сохраняется критический пробел: существующие бенчмарки в основном оценивают дискриминативное понимание или неограниченную генерацию изображений по отдельности, не измеряя интегрированный когнитивный процесс генеративного рассуждения. Чтобы заполнить этот пробел, мы предполагаем, что геометрическое построение предоставляет идеальный полигон для испытаний, поскольку оно по своей сути требует слияния языкового понимания и точного визуального конструирования. Мы представляем GGBench — бенчмарк, специально разработанный для оценки геометрического генеративного мышления. Он предоставляет всеобъемлющую основу для систематической диагностики способности модели не только понимать и рассуждать, но и активно конструировать решение, устанавливая таким образом более строгий стандарт для следующего поколения интеллектуальных систем. Страница проекта: https://opendatalab-raiser.github.io/GGBench/.
English
The advent of Unified Multimodal Models (UMMs) signals a paradigm shift in artificial intelligence, moving from passive perception to active, cross-modal generation. Despite their unprecedented ability to synthesize information, a critical gap persists in evaluation: existing benchmarks primarily assess discriminative understanding or unconstrained image generation separately, failing to measure the integrated cognitive process of generative reasoning. To bridge this gap, we propose that geometric construction provides an ideal testbed as it inherently demands a fusion of language comprehension and precise visual generation. We introduce GGBench, a benchmark designed specifically to evaluate geometric generative reasoning. It provides a comprehensive framework for systematically diagnosing a model's ability to not only understand and reason but to actively construct a solution, thereby setting a more rigorous standard for the next generation of intelligent systems. Project website: https://opendatalab-raiser.github.io/GGBench/.
PDF312December 1, 2025