ChatPaper.aiChatPaper

VisDoM: Multi-Dokumenten-Fragen und Antworten mit visuell reichen Elementen unter Verwendung von multimodaler Retrieval-gestützter Generierung

VisDoM: Multi-Document QA with Visually Rich Elements Using Multimodal Retrieval-Augmented Generation

December 14, 2024
Autoren: Manan Suri, Puneet Mathur, Franck Dernoncourt, Kanika Goswami, Ryan A. Rossi, Dinesh Manocha
cs.AI

Zusammenfassung

Das Verständnis von Informationen aus einer Sammlung mehrerer Dokumente, insbesondere solcher mit visuell reichen Elementen, ist für die belegbasierte Fragebeantwortung von Bedeutung. Diese Arbeit stellt VisDoMBench vor, den ersten umfassenden Benchmark, der entwickelt wurde, um QA-Systeme in mehrdokumentigen Umgebungen mit reichhaltigen multimodalen Inhalten wie Tabellen, Diagrammen und Präsentationsfolien zu bewerten. Wir schlagen VisDoMRAG vor, einen neuartigen multimodalen Retrieval Augmented Generation (RAG)-Ansatz vor, der gleichzeitig visuelles und textuelles RAG nutzt und robuste visuelle Abrufmöglichkeiten mit anspruchsvoller sprachlicher Argumentation kombiniert. VisDoMRAG verwendet einen mehrstufigen Argumentationsprozess, der die Beweissammlung und das Denken in Zusammenhängen für gleichzeitige textuelle und visuelle RAG-Pipelines umfasst. Eine Schlüsselneuheit von VisDoMRAG ist sein konsistenzbeschränkter Modalitätsfusionsmechanismus, der die Argumentationsprozesse über Modalitäten hinweg zur Inferenzzeit ausrichtet, um eine kohärente endgültige Antwort zu erzeugen. Dies führt zu einer verbesserten Genauigkeit in Szenarien, in denen wichtige Informationen über Modalitäten verteilt sind, und zu einer verbesserten Überprüfbarkeit der Antwort durch implizite Kontextzuweisung. Durch umfangreiche Experimente mit Open-Source- und proprietären großen Sprachmodellen bewerten wir state-of-the-art Dokument-QA-Methoden auf VisDoMBench. Umfangreiche Ergebnisse zeigen, dass VisDoMRAG unimodale und langkontextuelle LLM-Baselines für end-to-end multimodale Dokument-QA um 12-20% übertrifft.
English
Understanding information from a collection of multiple documents, particularly those with visually rich elements, is important for document-grounded question answering. This paper introduces VisDoMBench, the first comprehensive benchmark designed to evaluate QA systems in multi-document settings with rich multimodal content, including tables, charts, and presentation slides. We propose VisDoMRAG, a novel multimodal Retrieval Augmented Generation (RAG) approach that simultaneously utilizes visual and textual RAG, combining robust visual retrieval capabilities with sophisticated linguistic reasoning. VisDoMRAG employs a multi-step reasoning process encompassing evidence curation and chain-of-thought reasoning for concurrent textual and visual RAG pipelines. A key novelty of VisDoMRAG is its consistency-constrained modality fusion mechanism, which aligns the reasoning processes across modalities at inference time to produce a coherent final answer. This leads to enhanced accuracy in scenarios where critical information is distributed across modalities and improved answer verifiability through implicit context attribution. Through extensive experiments involving open-source and proprietary large language models, we benchmark state-of-the-art document QA methods on VisDoMBench. Extensive results show that VisDoMRAG outperforms unimodal and long-context LLM baselines for end-to-end multimodal document QA by 12-20%.

Summary

AI-Generated Summary

PDF152December 18, 2024