LLMAEL: Grote Taalmodellen zijn Goede Contextversterkers voor Entiteitskoppeling
LLMAEL: Large Language Models are Good Context Augmenters for Entity Linking
July 4, 2024
Auteurs: Amy Xin, Yunjia Qi, Zijun Yao, Fangwei Zhu, Kaisheng Zeng, Xu Bin, Lei Hou, Juanzi Li
cs.AI
Samenvatting
Entity Linking (EL)-modellen zijn goed getraind in het koppelen van vermeldingen aan hun corresponderende entiteiten op basis van een gegeven context. EL-modellen hebben echter moeite met het disambigueren van long-tail-entiteiten vanwege hun beperkte trainingsdata. Tegelijkertijd zijn grote taalmodellen (LLM's) robuuster in het interpreteren van ongebruikelijke vermeldingen. Door een gebrek aan gespecialiseerde training presteren LLM's echter minder goed in het genereren van correcte entiteit-ID's. Bovendien is het trainen van een LLM voor EL kostbaar. Gebaseerd op deze inzichten introduceren we LLM-Augmented Entity Linking (LLMAEL), een plug-and-play-benadering om entity linking te verbeteren via LLM-data-augmentatie. We benutten LLM's als kennisrijke contextversterkers, waarbij we vermelding-gerichte beschrijvingen genereren als aanvullende input, terwijl traditionele EL-modellen behouden blijven voor taakspecifieke verwerking. Experimenten op 6 standaarddatasets tonen aan dat de standaard LLMAEL in de meeste gevallen baseline-EL-modellen overtreft, terwijl de fijn afgestemde LLMAEL nieuwe state-of-the-art-resultaten behaalt op alle 6 benchmarks.
English
Entity Linking (EL) models are well-trained at mapping mentions to their
corresponding entities according to a given context. However, EL models
struggle to disambiguate long-tail entities due to their limited training data.
Meanwhile, large language models (LLMs) are more robust at interpreting
uncommon mentions. Yet, due to a lack of specialized training, LLMs suffer at
generating correct entity IDs. Furthermore, training an LLM to perform EL is
cost-intensive. Building upon these insights, we introduce LLM-Augmented Entity
Linking LLMAEL, a plug-and-play approach to enhance entity linking through LLM
data augmentation. We leverage LLMs as knowledgeable context augmenters,
generating mention-centered descriptions as additional input, while preserving
traditional EL models for task specific processing. Experiments on 6 standard
datasets show that the vanilla LLMAEL outperforms baseline EL models in most
cases, while the fine-tuned LLMAEL set the new state-of-the-art results across
all 6 benchmarks.