ChatPaper.aiChatPaper

MRMR: Ein realistischer und expertennaher multidisziplinärer Benchmark für reasoning-intensive multimodale Retrieval-Aufgaben

MRMR: A Realistic and Expert-Level Multidisciplinary Benchmark for Reasoning-Intensive Multimodal Retrieval

October 10, 2025
papers.authors: Siyue Zhang, Yuan Gao, Xiao Zhou, Yilun Zhao, Tingyu Song, Arman Cohan, Anh Tuan Luu, Chen Zhao
cs.AI

papers.abstract

Wir stellen MRMR vor, den ersten multidisziplinären multimodalen Retrieval-Benchmark auf Expertenniveau, der intensives Denken erfordert. MRMR enthält 1.502 Abfragen, die 23 Domänen umfassen, wobei die positiven Dokumente sorgfältig von menschlichen Experten verifiziert wurden. Im Vergleich zu früheren Benchmarks führt MRMR drei wesentliche Fortschritte ein. Erstens fordert es Retrieval-Systeme in verschiedenen Fachgebieten heraus und ermöglicht so einen detaillierten Modellvergleich über Domänen hinweg. Zweitens sind die Abfragen denkintensiv, wobei Bilder eine tiefere Interpretation erfordern, wie z. B. die Diagnose mikroskopischer Präparate. Wir führen zudem Contradiction Retrieval ein, eine neuartige Aufgabe, bei der Modelle widersprüchliche Konzepte identifizieren müssen. Schließlich werden Abfragen und Dokumente als Bild-Text-sequenzierte Sequenzen konstruiert. Im Gegensatz zu früheren Benchmarks, die auf einzelne Bilder oder unimodale Dokumente beschränkt waren, bietet MRMR eine realistische Umgebung mit Multi-Bild-Abfragen und gemischt-modalen Korpusdokumenten. Wir führen eine umfangreiche Evaluierung von 4 Kategorien multimodaler Retrieval-Systeme und 14 führenden Modellen auf MRMR durch. Das Text-Embedding-Modell Qwen3-Embedding mit LLM-generierten Bildbeschreibungen erzielt die höchste Leistung, was auf erheblichen Verbesserungsbedarf bei multimodalen Retrieval-Modellen hinweist. Obwohl neueste multimodale Modelle wie Ops-MM-Embedding bei Experten-domänenspezifischen Abfragen wettbewerbsfähig abschneiden, bleiben sie bei denkintensiven Aufgaben zurück. Wir glauben, dass MRMR den Weg für die Weiterentwicklung des multimodalen Retrievals in realistischeren und anspruchsvolleren Szenarien ebnet.
English
We introduce MRMR, the first expert-level multidisciplinary multimodal retrieval benchmark requiring intensive reasoning. MRMR contains 1,502 queries spanning 23 domains, with positive documents carefully verified by human experts. Compared to prior benchmarks, MRMR introduces three key advancements. First, it challenges retrieval systems across diverse areas of expertise, enabling fine-grained model comparison across domains. Second, queries are reasoning-intensive, with images requiring deeper interpretation such as diagnosing microscopic slides. We further introduce Contradiction Retrieval, a novel task requiring models to identify conflicting concepts. Finally, queries and documents are constructed as image-text interleaved sequences. Unlike earlier benchmarks restricted to single images or unimodal documents, MRMR offers a realistic setting with multi-image queries and mixed-modality corpus documents. We conduct an extensive evaluation of 4 categories of multimodal retrieval systems and 14 frontier models on MRMR. The text embedding model Qwen3-Embedding with LLM-generated image captions achieves the highest performance, highlighting substantial room for improving multimodal retrieval models. Although latest multimodal models such as Ops-MM-Embedding perform competitively on expert-domain queries, they fall short on reasoning-intensive tasks. We believe that MRMR paves the way for advancing multimodal retrieval in more realistic and challenging scenarios.
PDF72October 13, 2025