ChatPaper.aiChatPaper

VisDoM: Preguntas y respuestas multi-documento con elementos visualmente ricos utilizando Generación con Recuperación Multimodal Mejorada.

VisDoM: Multi-Document QA with Visually Rich Elements Using Multimodal Retrieval-Augmented Generation

December 14, 2024
Autores: Manan Suri, Puneet Mathur, Franck Dernoncourt, Kanika Goswami, Ryan A. Rossi, Dinesh Manocha
cs.AI

Resumen

La comprensión de la información de una colección de múltiples documentos, especialmente aquellos con elementos visualmente ricos, es importante para la respuesta a preguntas basadas en documentos. Este documento presenta VisDoMBench, el primer banco de pruebas integral diseñado para evaluar sistemas de QA en entornos de múltiples documentos con contenido multimodal rico, incluyendo tablas, gráficos y diapositivas de presentación. Proponemos VisDoMRAG, un enfoque novedoso de Recuperación Aumentada por Generación (RAG) multimodal que utiliza simultáneamente RAG visual y textual, combinando sólidas capacidades de recuperación visual con un sofisticado razonamiento lingüístico. VisDoMRAG emplea un proceso de razonamiento de múltiples pasos que abarca la curación de evidencia y el razonamiento en cadena de pensamiento para tuberías RAG textuales y visuales concurrentes. Una novedad clave de VisDoMRAG es su mecanismo de fusión de modalidades con restricciones de consistencia, que alinea los procesos de razonamiento entre modalidades en el momento de la inferencia para producir una respuesta final coherente. Esto conduce a una mayor precisión en escenarios donde la información crítica está distribuida en diferentes modalidades y a una mejor verificabilidad de respuestas a través de la atribución implícita de contexto. A través de experimentos extensos que involucran modelos de lenguaje grandes de código abierto y propietarios, evaluamos métodos de QA de documentos de vanguardia en VisDoMBench. Los resultados extensos muestran que VisDoMRAG supera a los baselines de LLM unimodales y de largo contexto para QA de documentos multimodales de extremo a extremo en un 12-20%.
English
Understanding information from a collection of multiple documents, particularly those with visually rich elements, is important for document-grounded question answering. This paper introduces VisDoMBench, the first comprehensive benchmark designed to evaluate QA systems in multi-document settings with rich multimodal content, including tables, charts, and presentation slides. We propose VisDoMRAG, a novel multimodal Retrieval Augmented Generation (RAG) approach that simultaneously utilizes visual and textual RAG, combining robust visual retrieval capabilities with sophisticated linguistic reasoning. VisDoMRAG employs a multi-step reasoning process encompassing evidence curation and chain-of-thought reasoning for concurrent textual and visual RAG pipelines. A key novelty of VisDoMRAG is its consistency-constrained modality fusion mechanism, which aligns the reasoning processes across modalities at inference time to produce a coherent final answer. This leads to enhanced accuracy in scenarios where critical information is distributed across modalities and improved answer verifiability through implicit context attribution. Through extensive experiments involving open-source and proprietary large language models, we benchmark state-of-the-art document QA methods on VisDoMBench. Extensive results show that VisDoMRAG outperforms unimodal and long-context LLM baselines for end-to-end multimodal document QA by 12-20%.

Summary

AI-Generated Summary

PDF152December 18, 2024