ChatPaper.aiChatPaper

Uni-MMMU: Ein massiver multidisziplinärer multimodaler einheitlicher Benchmark

Uni-MMMU: A Massive Multi-discipline Multimodal Unified Benchmark

October 15, 2025
papers.authors: Kai Zou, Ziqi Huang, Yuhao Dong, Shulin Tian, Dian Zheng, Hongbo Liu, Jingwen He, Bin Liu, Yu Qiao, Ziwei Liu
cs.AI

papers.abstract

Unified Multimodal Models zielen darauf ab, visuelles Verständnis und Generierung gemeinsam zu ermöglichen, doch aktuelle Benchmarks untersuchen selten deren echte Integration. Bestehende Bewertungen behandeln die beiden Fähigkeiten entweder isoliert oder übersehen Aufgaben, die sie inhärent koppeln. Um diese Lücke zu schließen, präsentieren wir Uni-MMMU, einen umfassenden und disziplinbewussten Benchmark, der die bidirektionale Synergie zwischen Generierung und Verständnis systematisch über acht domänenübergreifende, auf logisches Denken ausgerichtete Bereiche entfaltet, darunter Wissenschaft, Programmierung, Mathematik und Rätsel. Jede Aufgabe ist bidirektional gekoppelt und erfordert von den Modellen, (i) konzeptionelles Verständnis zu nutzen, um präzise visuelle Synthese zu leiten, oder (ii) Generierung als kognitive Stütze für analytisches Denken einzusetzen. Uni-MMMU integriert überprüfbare Zwischenschritte der Argumentation, einzigartige Ground Truths sowie ein reproduzierbares Bewertungsprotokoll für sowohl textuelle als auch visuelle Ausgaben. Durch umfangreiche Evaluierung von state-of-the-art einheitlichen, nur generierenden und nur verstehenden Modellen decken wir erhebliche Leistungsunterschiede und cross-modale Abhängigkeiten auf, bieten neue Einblicke, wann und wie sich diese Fähigkeiten gegenseitig verstärken, und schaffen eine zuverlässige Grundlage für die Weiterentwicklung einheitlicher Modelle.
English
Unified multimodal models aim to jointly enable visual understanding and generation, yet current benchmarks rarely examine their true integration. Existing evaluations either treat the two abilities in isolation or overlook tasks that inherently couple them. To address this gap, we present Uni-MMMU, a comprehensive and discipline-aware benchmark that systematically unfolds the bidirectional synergy between generation and understanding across eight reasoning-centric domains, including science, coding, mathematics, and puzzles. Each task is bidirectionally coupled, demanding models to (i) leverage conceptual understanding to guide precise visual synthesis, or (ii) utilize generation as a cognitive scaffold for analytical reasoning. Uni-MMMU incorporates verifiable intermediate reasoning steps, unique ground truths, and a reproducible scoring protocol for both textual and visual outputs. Through extensive evaluation of state-of-the-art unified, generation-only, and understanding-only models, we reveal substantial performance disparities and cross-modal dependencies, offering new insights into when and how these abilities reinforce one another, and establishing a reliable foundation for advancing unified models.
PDF92October 16, 2025