ChatPaper.aiChatPaper

GenExam: Een Multidisciplinair Tekst-naar-Beeld Examen

GenExam: A Multidisciplinary Text-to-Image Exam

September 17, 2025
Auteurs: Zhaokai Wang, Penghao Yin, Xiangyu Zhao, Changyao Tian, Yu Qiao, Wenhai Wang, Jifeng Dai, Gen Luo
cs.AI

Samenvatting

Examens vormen een fundamentele test van expertniveau-intelligentie en vereisen geïntegreerd begrip, redenering en generatie. Bestaande examengerichte benchmarks richten zich voornamelijk op begrips- en redeneertaken, en huidige generatiebenchmarks leggen de nadruk op het illustreren van wereldkennis en visuele concepten, waarbij de evaluatie van strenge tekeningenexamens wordt verwaarloosd. We introduceren GenExam, de eerste benchmark voor multidisciplinaire tekst-naar-beeld examens, met 1.000 voorbeelden verdeeld over 10 vakken met examengerichte prompts georganiseerd volgens een vierniveau-taxonomie. Elk probleem is voorzien van grondwaarheidbeelden en fijnmazige scoringspunten om een nauwkeurige evaluatie van semantische correctheid en visuele geloofwaardigheid mogelijk te maken. Experimenten tonen aan dat zelfs state-of-the-art modellen zoals GPT-Image-1 en Gemini-2.5-Flash-Image minder dan 15% strenge scores behalen, en de meeste modellen scoren bijna 0%, wat de grote uitdaging van onze benchmark onderstreept. Door beeldgeneratie te benaderen als een examen, biedt GenExam een rigoureuze beoordeling van het vermogen van modellen om kennis, redenering en generatie te integreren, en biedt het inzichten op het pad naar algemene AGI.
English
Exams are a fundamental test of expert-level intelligence and require integrated understanding, reasoning, and generation. Existing exam-style benchmarks mainly focus on understanding and reasoning tasks, and current generation benchmarks emphasize the illustration of world knowledge and visual concepts, neglecting the evaluation of rigorous drawing exams. We introduce GenExam, the first benchmark for multidisciplinary text-to-image exams, featuring 1,000 samples across 10 subjects with exam-style prompts organized under a four-level taxonomy. Each problem is equipped with ground-truth images and fine-grained scoring points to enable a precise evaluation of semantic correctness and visual plausibility. Experiments show that even state-of-the-art models such as GPT-Image-1 and Gemini-2.5-Flash-Image achieve less than 15% strict scores, and most models yield almost 0%, suggesting the great challenge of our benchmark. By framing image generation as an exam, GenExam offers a rigorous assessment of models' ability to integrate knowledge, reasoning, and generation, providing insights on the path to general AGI.
PDF212September 18, 2025