MM-IQ: Het benchmarken van mensachtige abstractie en redenering in multimodale modellen
MM-IQ: Benchmarking Human-Like Abstraction and Reasoning in Multimodal Models
February 2, 2025
Auteurs: Huanqia Cai, Yijun Yang, Winston Hu
cs.AI
Samenvatting
IQ-testen hebben gediend als een fundamentele methodologie voor het evalueren van menselijke cognitieve capaciteiten, waarbij de beoordeling opzettelijk is losgekoppeld van taalkundige achtergrond, taalvaardigheid of domeinspecifieke kennis om kerncompetenties in abstractie en redenering te isoleren. Toch ontbreken er momenteel in het onderzoek naar kunstmatige intelligentie systematische benchmarks om deze kritieke cognitieve dimensies in multimodale systemen te kwantificeren. Om deze kritieke lacune aan te pakken, stellen wij MM-IQ voor, een uitgebreid evaluatiekader bestaande uit 2.710 zorgvuldig samengestelde testitems die 8 verschillende redeneerparadigma's beslaan.
Door systematische evaluatie van toonaangevende open-source en gepatenteerde multimodale modellen onthult onze benchmark opvallende beperkingen: zelfs geavanceerde architecturen behalen slechts marginaal superieure prestaties ten opzichte van willekeurige kans (27,49% vs. 25% basale nauwkeurigheid). Deze aanzienlijke prestatiekloof benadrukt de ontoereikendheid van huidige multimodale systemen om fundamentele menselijke redeneercapaciteiten te benaderen, waarbij de noodzaak voor baanbrekende ontwikkelingen wordt benadrukt om deze cognitieve kloof te overbruggen.
English
IQ testing has served as a foundational methodology for evaluating human
cognitive capabilities, deliberately decoupling assessment from linguistic
background, language proficiency, or domain-specific knowledge to isolate core
competencies in abstraction and reasoning. Yet, artificial intelligence
research currently lacks systematic benchmarks to quantify these critical
cognitive dimensions in multimodal systems. To address this critical gap, we
propose MM-IQ, a comprehensive evaluation framework comprising 2,710
meticulously curated test items spanning 8 distinct reasoning paradigms.
Through systematic evaluation of leading open-source and proprietary
multimodal models, our benchmark reveals striking limitations: even
state-of-the-art architectures achieve only marginally superior performance to
random chance (27.49% vs. 25% baseline accuracy). This substantial performance
chasm highlights the inadequacy of current multimodal systems in approximating
fundamental human reasoning capacities, underscoring the need for
paradigm-shifting advancements to bridge this cognitive divide.Summary
AI-Generated Summary