ChatPaper.aiChatPaper

M3SciQA: Um Benchmark de QA Científico Multimodal e Multidocumento para Avaliação de Modelos de Base

M3SciQA: A Multi-Modal Multi-Document Scientific QA Benchmark for Evaluating Foundation Models

November 6, 2024
Autores: Chuhan Li, Ziyao Shangguan, Yilun Zhao, Deyuan Li, Yixin Liu, Arman Cohan
cs.AI

Resumo

Os benchmarks existentes para avaliar modelos de base concentram-se principalmente em tarefas de documento único e apenas texto. No entanto, eles frequentemente falham em capturar plenamente a complexidade dos fluxos de trabalho de pesquisa, que tipicamente envolvem a interpretação de dados não textuais e a recolha de informações através de múltiplos documentos. Para colmatar esta lacuna, introduzimos o M3SciQA, um benchmark de resposta a perguntas científicas multimodal e multidocumento, concebido para uma avaliação mais abrangente de modelos de base. O M3SciQA é composto por 1.452 questões anotadas por especialistas, abrangendo 70 clusters de artigos de processamento de linguagem natural, onde cada cluster representa um artigo principal juntamente com todos os seus documentos citados, espelhando o fluxo de trabalho de compreensão de um único artigo ao exigir dados multimodais e multidocumento. Com o M3SciQA, realizámos uma avaliação abrangente de 18 modelos de base. Os nossos resultados indicam que os modelos de base atuais ainda têm um desempenho significativamente inferior ao dos especialistas humanos na recuperação de informação multimodal e no raciocínio através de múltiplos documentos científicos. Adicionalmente, exploramos as implicações destas descobertas para o avanço futuro da aplicação de modelos de base na análise multimodal de literatura científica.
English
Existing benchmarks for evaluating foundation models mainly focus on single-document, text-only tasks. However, they often fail to fully capture the complexity of research workflows, which typically involve interpreting non-textual data and gathering information across multiple documents. To address this gap, we introduce M3SciQA, a multi-modal, multi-document scientific question answering benchmark designed for a more comprehensive evaluation of foundation models. M3SciQA consists of 1,452 expert-annotated questions spanning 70 natural language processing paper clusters, where each cluster represents a primary paper along with all its cited documents, mirroring the workflow of comprehending a single paper by requiring multi-modal and multi-document data. With M3SciQA, we conduct a comprehensive evaluation of 18 foundation models. Our results indicate that current foundation models still significantly underperform compared to human experts in multi-modal information retrieval and in reasoning across multiple scientific documents. Additionally, we explore the implications of these findings for the future advancement of applying foundation models in multi-modal scientific literature analysis.
PDF172December 4, 2025