ChatPaper.aiChatPaper

MM-IQ: Het benchmarken van mensachtige abstractie en redenering in multimodale modellen

MM-IQ: Benchmarking Human-Like Abstraction and Reasoning in Multimodal Models

February 2, 2025
Auteurs: Huanqia Cai, Yijun Yang, Winston Hu
cs.AI

Samenvatting

IQ-testen hebben gediend als een fundamentele methodologie voor het evalueren van menselijke cognitieve capaciteiten, waarbij de beoordeling opzettelijk is losgekoppeld van taalkundige achtergrond, taalvaardigheid of domeinspecifieke kennis om kerncompetenties in abstractie en redenering te isoleren. Toch ontbreken er momenteel in het onderzoek naar kunstmatige intelligentie systematische benchmarks om deze kritieke cognitieve dimensies in multimodale systemen te kwantificeren. Om deze kritieke lacune aan te pakken, stellen wij MM-IQ voor, een uitgebreid evaluatiekader bestaande uit 2.710 zorgvuldig samengestelde testitems die 8 verschillende redeneerparadigma's beslaan. Door systematische evaluatie van toonaangevende open-source en gepatenteerde multimodale modellen onthult onze benchmark opvallende beperkingen: zelfs geavanceerde architecturen behalen slechts marginaal superieure prestaties ten opzichte van willekeurige kans (27,49% vs. 25% basale nauwkeurigheid). Deze aanzienlijke prestatiekloof benadrukt de ontoereikendheid van huidige multimodale systemen om fundamentele menselijke redeneercapaciteiten te benaderen, waarbij de noodzaak voor baanbrekende ontwikkelingen wordt benadrukt om deze cognitieve kloof te overbruggen.
English
IQ testing has served as a foundational methodology for evaluating human cognitive capabilities, deliberately decoupling assessment from linguistic background, language proficiency, or domain-specific knowledge to isolate core competencies in abstraction and reasoning. Yet, artificial intelligence research currently lacks systematic benchmarks to quantify these critical cognitive dimensions in multimodal systems. To address this critical gap, we propose MM-IQ, a comprehensive evaluation framework comprising 2,710 meticulously curated test items spanning 8 distinct reasoning paradigms. Through systematic evaluation of leading open-source and proprietary multimodal models, our benchmark reveals striking limitations: even state-of-the-art architectures achieve only marginally superior performance to random chance (27.49% vs. 25% baseline accuracy). This substantial performance chasm highlights the inadequacy of current multimodal systems in approximating fundamental human reasoning capacities, underscoring the need for paradigm-shifting advancements to bridge this cognitive divide.

Summary

AI-Generated Summary

PDF242February 4, 2025