ChatPaper.aiChatPaper

LLMAEL: Grote Taalmodellen zijn Goede Contextversterkers voor Entiteitskoppeling

LLMAEL: Large Language Models are Good Context Augmenters for Entity Linking

July 4, 2024
Auteurs: Amy Xin, Yunjia Qi, Zijun Yao, Fangwei Zhu, Kaisheng Zeng, Xu Bin, Lei Hou, Juanzi Li
cs.AI

Samenvatting

Entity Linking (EL)-modellen zijn goed getraind in het koppelen van vermeldingen aan hun corresponderende entiteiten op basis van een gegeven context. EL-modellen hebben echter moeite met het disambigueren van long-tail-entiteiten vanwege hun beperkte trainingsdata. Tegelijkertijd zijn grote taalmodellen (LLM's) robuuster in het interpreteren van ongebruikelijke vermeldingen. Door een gebrek aan gespecialiseerde training presteren LLM's echter minder goed in het genereren van correcte entiteit-ID's. Bovendien is het trainen van een LLM voor EL kostbaar. Gebaseerd op deze inzichten introduceren we LLM-Augmented Entity Linking (LLMAEL), een plug-and-play-benadering om entity linking te verbeteren via LLM-data-augmentatie. We benutten LLM's als kennisrijke contextversterkers, waarbij we vermelding-gerichte beschrijvingen genereren als aanvullende input, terwijl traditionele EL-modellen behouden blijven voor taakspecifieke verwerking. Experimenten op 6 standaarddatasets tonen aan dat de standaard LLMAEL in de meeste gevallen baseline-EL-modellen overtreft, terwijl de fijn afgestemde LLMAEL nieuwe state-of-the-art-resultaten behaalt op alle 6 benchmarks.
English
Entity Linking (EL) models are well-trained at mapping mentions to their corresponding entities according to a given context. However, EL models struggle to disambiguate long-tail entities due to their limited training data. Meanwhile, large language models (LLMs) are more robust at interpreting uncommon mentions. Yet, due to a lack of specialized training, LLMs suffer at generating correct entity IDs. Furthermore, training an LLM to perform EL is cost-intensive. Building upon these insights, we introduce LLM-Augmented Entity Linking LLMAEL, a plug-and-play approach to enhance entity linking through LLM data augmentation. We leverage LLMs as knowledgeable context augmenters, generating mention-centered descriptions as additional input, while preserving traditional EL models for task specific processing. Experiments on 6 standard datasets show that the vanilla LLMAEL outperforms baseline EL models in most cases, while the fine-tuned LLMAEL set the new state-of-the-art results across all 6 benchmarks.
PDF41November 28, 2024