ChatPaper.aiChatPaper

LLMAEL : Les grands modèles de langage sont d'excellents amplificateurs de contexte pour la liaison d'entités

LLMAEL: Large Language Models are Good Context Augmenters for Entity Linking

July 4, 2024
Auteurs: Amy Xin, Yunjia Qi, Zijun Yao, Fangwei Zhu, Kaisheng Zeng, Xu Bin, Lei Hou, Juanzi Li
cs.AI

Résumé

Les modèles de liaison d'entités (Entity Linking, EL) sont bien entraînés à associer des mentions à leurs entités correspondantes selon un contexte donné. Cependant, ces modèles peinent à désambiguïser les entités de longue traîne en raison de leurs données d'entraînement limitées. Par ailleurs, les grands modèles de langage (Large Language Models, LLMs) sont plus robustes pour interpréter des mentions peu communes. Néanmoins, en l'absence d'un entraînement spécialisé, les LLMs ont des difficultés à générer des identifiants d'entités corrects. De plus, entraîner un LLM pour effectuer la liaison d'entités est coûteux. En nous appuyant sur ces constats, nous présentons LLM-Augmented Entity Linking (LLMAEL), une approche plug-and-play visant à améliorer la liaison d'entités par augmentation de données via les LLMs. Nous exploitons les LLMs comme des enrichisseurs de contexte experts, générant des descriptions centrées sur les mentions comme entrées supplémentaires, tout en conservant les modèles EL traditionnels pour le traitement spécifique à la tâche. Les expériences menées sur 6 jeux de données standards montrent que la version de base de LLMAEL surpasse les modèles EL de référence dans la plupart des cas, tandis que la version fine-tunée de LLMAEL établit de nouveaux records de performance sur l'ensemble des 6 benchmarks.
English
Entity Linking (EL) models are well-trained at mapping mentions to their corresponding entities according to a given context. However, EL models struggle to disambiguate long-tail entities due to their limited training data. Meanwhile, large language models (LLMs) are more robust at interpreting uncommon mentions. Yet, due to a lack of specialized training, LLMs suffer at generating correct entity IDs. Furthermore, training an LLM to perform EL is cost-intensive. Building upon these insights, we introduce LLM-Augmented Entity Linking LLMAEL, a plug-and-play approach to enhance entity linking through LLM data augmentation. We leverage LLMs as knowledgeable context augmenters, generating mention-centered descriptions as additional input, while preserving traditional EL models for task specific processing. Experiments on 6 standard datasets show that the vanilla LLMAEL outperforms baseline EL models in most cases, while the fine-tuned LLMAEL set the new state-of-the-art results across all 6 benchmarks.

Summary

AI-Generated Summary

PDF41November 28, 2024