Vinculação de Sentido de Palavras: Desambiguação Fora da Caixa
Word Sense Linking: Disambiguating Outside the Sandbox
December 12, 2024
Autores: Andrei Stefan Bejgu, Edoardo Barba, Luigi Procopio, Alberte Fernández-Castro, Roberto Navigli
cs.AI
Resumo
A Desambiguação de Sentido de Palavras (DSP) é a tarefa de associar uma palavra em um determinado contexto com seu significado mais adequado entre um conjunto de candidatos possíveis. Embora a tarefa tenha recentemente despertado um interesse renovado, com sistemas alcançando desempenhos acima do acordo interanotador estimado, no momento da escrita ainda enfrenta dificuldades para encontrar aplicações práticas. Argumentamos que uma das razões para isso é a dificuldade de aplicar a DSP a texto simples. De fato, na formulação padrão, os modelos operam sob a premissa de que a) todas as extensões a serem desambiguadas já foram identificadas e b) todos os possíveis sentidos candidatos de cada extensão são fornecidos, ambos requisitos que estão longe de ser triviais. Neste trabalho, apresentamos uma nova tarefa chamada Vinculação de Sentido de Palavras (VSP) onde, dado um texto de entrada e um inventário de sentidos de referência, os sistemas devem tanto identificar quais extensões desambiguar quanto vinculá-las ao seu significado mais adequado. Propomos uma arquitetura baseada em transformadores para a tarefa e avaliamos minuciosamente tanto seu desempenho quanto o daqueles dos sistemas de DSP de ponta adaptados para VSP, relaxando iterativamente as premissas da DSP. Esperamos que nosso trabalho promova uma integração mais fácil da semântica lexical em aplicações práticas.
English
Word Sense Disambiguation (WSD) is the task of associating a word in a given
context with its most suitable meaning among a set of possible candidates.
While the task has recently witnessed renewed interest, with systems achieving
performances above the estimated inter-annotator agreement, at the time of
writing it still struggles to find downstream applications. We argue that one
of the reasons behind this is the difficulty of applying WSD to plain text.
Indeed, in the standard formulation, models work under the assumptions that a)
all the spans to disambiguate have already been identified, and b) all the
possible candidate senses of each span are provided, both of which are
requirements that are far from trivial. In this work, we present a new task
called Word Sense Linking (WSL) where, given an input text and a reference
sense inventory, systems have to both identify which spans to disambiguate and
then link them to their most suitable meaning.We put forward a
transformer-based architecture for the task and thoroughly evaluate both its
performance and those of state-of-the-art WSD systems scaled to WSL,
iteratively relaxing the assumptions of WSD. We hope that our work will foster
easier integration of lexical semantics into downstream applications.Summary
AI-Generated Summary