ChatPaper.aiChatPaper

Kunnen multimodale foundation-modellen schematische diagrammen begrijpen? Een empirische studie naar informatiezoekende vraag-antwoordsystemen voor wetenschappelijke artikelen

Can Multimodal Foundation Models Understand Schematic Diagrams? An Empirical Study on Information-Seeking QA over Scientific Papers

July 14, 2025
Auteurs: Yilun Zhao, Chengye Wang, Chuhan Li, Arman Cohan
cs.AI

Samenvatting

Dit artikel introduceert MISS-QA, de eerste benchmark die specifiek is ontworpen om het vermogen van modellen om schematische diagrammen in wetenschappelijke literatuur te interpreteren te evalueren. MISS-QA bestaat uit 1.500 door experts geannoteerde voorbeelden uit 465 wetenschappelijke artikelen. In deze benchmark krijgen modellen de taak om schematische diagrammen die onderzoeksoverzichten illustreren te interpreteren en bijbehorende informatiezoekvragen te beantwoorden op basis van de bredere context van het artikel. We beoordelen de prestaties van 18 toonaangevende multimodale foundationmodellen, waaronder o4-mini, Gemini-2.5-Flash en Qwen2.5-VL. We onthullen een aanzienlijk prestatieverschil tussen deze modellen en menselijke experts op MISS-QA. Onze analyse van de modelprestaties op onbeantwoordbare vragen en onze gedetailleerde foutenanalyse benadrukken verder de sterke en zwakke punten van huidige modellen, wat belangrijke inzichten biedt om modellen te verbeteren in het begrijpen van multimodale wetenschappelijke literatuur.
English
This paper introduces MISS-QA, the first benchmark specifically designed to evaluate the ability of models to interpret schematic diagrams within scientific literature. MISS-QA comprises 1,500 expert-annotated examples over 465 scientific papers. In this benchmark, models are tasked with interpreting schematic diagrams that illustrate research overviews and answering corresponding information-seeking questions based on the broader context of the paper. We assess the performance of 18 frontier multimodal foundation models, including o4-mini, Gemini-2.5-Flash, and Qwen2.5-VL. We reveal a significant performance gap between these models and human experts on MISS-QA. Our analysis of model performance on unanswerable questions and our detailed error analysis further highlight the strengths and limitations of current models, offering key insights to enhance models in comprehending multimodal scientific literature.
PDF111July 16, 2025