ChatPaper.aiChatPaper

DocGraphLM : Modèle de Langage Graphique Documentaire pour l'Extraction d'Informations

DocGraphLM: Documental Graph Language Model for Information Extraction

January 5, 2024
Auteurs: Dongsheng Wang, Zhiqiang Ma, Armineh Nourbakhsh, Kang Gu, Sameena Shah
cs.AI

Résumé

Les avancées dans la compréhension des documents visuellement riches (Visually Rich Document Understanding, VrDU) ont permis l'extraction d'informations et le question-réponse sur des documents présentant des mises en page complexes. Deux types d'architectures ont émergé : les modèles basés sur les transformateurs, inspirés des modèles de langage de grande taille (LLMs), et les réseaux de neurones graphiques (Graph Neural Networks). Dans cet article, nous présentons DocGraphLM, un nouveau cadre qui combine des modèles de langage pré-entraînés avec la sémantique des graphes. Pour y parvenir, nous proposons 1) une architecture d'encodeur conjoint pour représenter les documents, et 2) une nouvelle approche de prédiction de liens pour reconstruire les graphes de documents. DocGraphLM prédit à la fois les directions et les distances entre les nœuds en utilisant une fonction de perte conjointe convergente qui priorise la restauration du voisinage et atténue la détection des nœuds distants. Nos expériences sur trois ensembles de données de pointe (SotA) montrent une amélioration constante des tâches d'extraction d'informations (IE) et de question-réponse (QA) grâce à l'adoption des caractéristiques graphiques. De plus, nous constatons que l'utilisation des caractéristiques graphiques accélère la convergence lors du processus d'apprentissage pendant l'entraînement, bien qu'elles soient uniquement construites par prédiction de liens.
English
Advances in Visually Rich Document Understanding (VrDU) have enabled information extraction and question answering over documents with complex layouts. Two tropes of architectures have emerged -- transformer-based models inspired by LLMs, and Graph Neural Networks. In this paper, we introduce DocGraphLM, a novel framework that combines pre-trained language models with graph semantics. To achieve this, we propose 1) a joint encoder architecture to represent documents, and 2) a novel link prediction approach to reconstruct document graphs. DocGraphLM predicts both directions and distances between nodes using a convergent joint loss function that prioritizes neighborhood restoration and downweighs distant node detection. Our experiments on three SotA datasets show consistent improvement on IE and QA tasks with the adoption of graph features. Moreover, we report that adopting the graph features accelerates convergence in the learning process during training, despite being solely constructed through link prediction.
PDF374December 15, 2024