MRMR: Un punto de referencia multidisciplinario realista y de nivel experto para la recuperación multimodal intensiva en razonamiento
MRMR: A Realistic and Expert-Level Multidisciplinary Benchmark for Reasoning-Intensive Multimodal Retrieval
October 10, 2025
Autores: Siyue Zhang, Yuan Gao, Xiao Zhou, Yilun Zhao, Tingyu Song, Arman Cohan, Anh Tuan Luu, Chen Zhao
cs.AI
Resumen
Presentamos MRMR, el primer benchmark multidisciplinario multimodal de recuperación de información a nivel experto que requiere razonamiento intensivo. MRMR contiene 1.502 consultas que abarcan 23 dominios, con documentos positivos verificados cuidadosamente por expertos humanos. En comparación con benchmarks anteriores, MRMR introduce tres avances clave. Primero, desafía a los sistemas de recuperación en diversas áreas de especialización, permitiendo una comparación granular de modelos entre dominios. Segundo, las consultas son intensivas en razonamiento, con imágenes que requieren una interpretación más profunda, como el diagnóstico de láminas microscópicas. Además, introducimos la Recuperación por Contradicción, una tarea novedosa que exige a los modelos identificar conceptos conflictivos. Finalmente, las consultas y documentos se construyen como secuencias intercaladas de imágenes y texto. A diferencia de benchmarks anteriores limitados a imágenes individuales o documentos unimodales, MRMR ofrece un escenario realista con consultas multi-imagen y documentos de corpus de modalidad mixta. Realizamos una evaluación exhaustiva de 4 categorías de sistemas de recuperación multimodal y 14 modelos de vanguardia en MRMR. El modelo de incrustación de texto Qwen3-Embedding con subtítulos generados por LLM para imágenes alcanza el mayor rendimiento, destacando un margen sustancial para mejorar los modelos de recuperación multimodal. Aunque los últimos modelos multimodales como Ops-MM-Embedding tienen un desempeño competitivo en consultas de dominio experto, se quedan cortos en tareas intensivas en razonamiento. Creemos que MRMR allana el camino para avanzar en la recuperación multimodal en escenarios más realistas y desafiantes.
English
We introduce MRMR, the first expert-level multidisciplinary multimodal
retrieval benchmark requiring intensive reasoning. MRMR contains 1,502 queries
spanning 23 domains, with positive documents carefully verified by human
experts. Compared to prior benchmarks, MRMR introduces three key advancements.
First, it challenges retrieval systems across diverse areas of expertise,
enabling fine-grained model comparison across domains. Second, queries are
reasoning-intensive, with images requiring deeper interpretation such as
diagnosing microscopic slides. We further introduce Contradiction Retrieval, a
novel task requiring models to identify conflicting concepts. Finally, queries
and documents are constructed as image-text interleaved sequences. Unlike
earlier benchmarks restricted to single images or unimodal documents, MRMR
offers a realistic setting with multi-image queries and mixed-modality corpus
documents. We conduct an extensive evaluation of 4 categories of multimodal
retrieval systems and 14 frontier models on MRMR. The text embedding model
Qwen3-Embedding with LLM-generated image captions achieves the highest
performance, highlighting substantial room for improving multimodal retrieval
models. Although latest multimodal models such as Ops-MM-Embedding perform
competitively on expert-domain queries, they fall short on reasoning-intensive
tasks. We believe that MRMR paves the way for advancing multimodal retrieval in
more realistic and challenging scenarios.