ChatPaper.aiChatPaper

VisDoM: Multi-Document Vraag-antwoordsysteem met Visueel Rijke Elementen door middel van Multimodale Retrieval-Versterkte Generatie

VisDoM: Multi-Document QA with Visually Rich Elements Using Multimodal Retrieval-Augmented Generation

December 14, 2024
Auteurs: Manan Suri, Puneet Mathur, Franck Dernoncourt, Kanika Goswami, Ryan A. Rossi, Dinesh Manocha
cs.AI

Samenvatting

Het begrijpen van informatie uit een verzameling van meerdere documenten, met name die met visueel rijke elementen, is belangrijk voor vraagbeantwoording op basis van documenten. Dit artikel introduceert VisDoMBench, de eerste uitgebreide benchmark ontworpen om QA-systemen te evalueren in multi-document instellingen met rijke multimodale inhoud, waaronder tabellen, grafieken en presentaties. We stellen VisDoMRAG voor, een nieuw multimodaal Retrieval Augmented Generation (RAG) benadering die gelijktijdig visuele en tekstuele RAG gebruikt, waarbij robuuste visuele ophaalmogelijkheden worden gecombineerd met geavanceerde linguïstische redenering. VisDoMRAG maakt gebruik van een meerstaps redeneerproces dat bewijscuratie en keten-van-gedachten redenering omvat voor gelijktijdige tekstuele en visuele RAG-pipelines. Een belangrijke nieuwigheid van VisDoMRAG is het consistentie-beperkte modaliteitenfusie mechanisme, dat de redeneerprocessen over modaliteiten afstemt op inferentietijd om een coherente uiteindelijke antwoord te produceren. Dit leidt tot verbeterde nauwkeurigheid in scenario's waar kritieke informatie over modaliteiten is verdeeld en verbeterde antwoordverifieerbaarheid door impliciete contexttoewijzing. Via uitgebreide experimenten met open-source en eigen grote taalmodellen, benchmarken we state-of-the-art document QA-methoden op VisDoMBench. Uitgebreide resultaten tonen aan dat VisDoMRAG beter presteert dan unimodale en lange-context LLM-baselines voor end-to-end multimodale document QA met 12-20%.
English
Understanding information from a collection of multiple documents, particularly those with visually rich elements, is important for document-grounded question answering. This paper introduces VisDoMBench, the first comprehensive benchmark designed to evaluate QA systems in multi-document settings with rich multimodal content, including tables, charts, and presentation slides. We propose VisDoMRAG, a novel multimodal Retrieval Augmented Generation (RAG) approach that simultaneously utilizes visual and textual RAG, combining robust visual retrieval capabilities with sophisticated linguistic reasoning. VisDoMRAG employs a multi-step reasoning process encompassing evidence curation and chain-of-thought reasoning for concurrent textual and visual RAG pipelines. A key novelty of VisDoMRAG is its consistency-constrained modality fusion mechanism, which aligns the reasoning processes across modalities at inference time to produce a coherent final answer. This leads to enhanced accuracy in scenarios where critical information is distributed across modalities and improved answer verifiability through implicit context attribution. Through extensive experiments involving open-source and proprietary large language models, we benchmark state-of-the-art document QA methods on VisDoMBench. Extensive results show that VisDoMRAG outperforms unimodal and long-context LLM baselines for end-to-end multimodal document QA by 12-20%.
PDF162February 8, 2026