MMIU: Multimodale Multi-beeldbegrip voor de Evaluatie van Grote Visie-Taalmodellen
MMIU: Multimodal Multi-image Understanding for Evaluating Large Vision-Language Models
August 5, 2024
Auteurs: Fanqing Meng, Jin Wang, Chuanhao Li, Quanfeng Lu, Hao Tian, Jiaqi Liao, Xizhou Zhu, Jifeng Dai, Yu Qiao, Ping Luo, Kaipeng Zhang, Wenqi Shao
cs.AI
Samenvatting
Het vermogen om meerdere afbeeldingen te verwerken is cruciaal voor Grote Vision-Taalmodellen (LVLMs) om een grondiger en genuanceerder begrip van een scène te ontwikkelen. Recente multi-image LVLMs zijn begonnen aan deze behoefte tegemoet te komen. Echter, hun evaluatie heeft geen gelijke tred gehouden met hun ontwikkeling. Om deze leemte op te vullen, introduceren we de Multimodale Multi-image Understanding (MMIU) benchmark, een uitgebreide evaluatiesuite ontworpen om LVLMs te beoordelen over een breed scala aan multi-image taken. MMIU omvat 7 soorten multi-image relaties, 52 taken, 77K afbeeldingen en 11K zorgvuldig samengestelde meerkeuzevragen, waardoor het de meest uitgebreide benchmark in zijn soort is. Onze evaluatie van 24 populaire LVLMs, waaronder zowel open-source als propriëtaire modellen, onthult aanzienlijke uitdagingen in multi-image begrip, met name in taken die ruimtelijk inzicht vereisen. Zelfs de meest geavanceerde modellen, zoals GPT-4o, behalen slechts 55,7% nauwkeurigheid op MMIU. Door middel van veelzijdige analytische experimenten identificeren we belangrijke prestatiekloofjes en beperkingen, wat waardevolle inzichten biedt voor toekomstige model- en dataverbeteringen. Wij streven ernaar dat MMIU de grens van LVLM-onderzoek en -ontwikkeling verlegt, en ons dichter brengt bij het bereiken van geavanceerde multimodale multi-image gebruikersinteracties.
English
The capability to process multiple images is crucial for Large
Vision-Language Models (LVLMs) to develop a more thorough and nuanced
understanding of a scene. Recent multi-image LVLMs have begun to address this
need. However, their evaluation has not kept pace with their development. To
fill this gap, we introduce the Multimodal Multi-image Understanding (MMIU)
benchmark, a comprehensive evaluation suite designed to assess LVLMs across a
wide range of multi-image tasks. MMIU encompasses 7 types of multi-image
relationships, 52 tasks, 77K images, and 11K meticulously curated
multiple-choice questions, making it the most extensive benchmark of its kind.
Our evaluation of 24 popular LVLMs, including both open-source and proprietary
models, reveals significant challenges in multi-image comprehension,
particularly in tasks involving spatial understanding. Even the most advanced
models, such as GPT-4o, achieve only 55.7% accuracy on MMIU. Through
multi-faceted analytical experiments, we identify key performance gaps and
limitations, providing valuable insights for future model and data
improvements. We aim for MMIU to advance the frontier of LVLM research and
development, moving us toward achieving sophisticated multimodal multi-image
user interactions.