Woordbetekeniskoppeling: Het ondubbelzinnig maken buiten de zandbak.
Word Sense Linking: Disambiguating Outside the Sandbox
December 12, 2024
Auteurs: Andrei Stefan Bejgu, Edoardo Barba, Luigi Procopio, Alberte Fernández-Castro, Roberto Navigli
cs.AI
Samenvatting
Woordbetekenisontwarring (WSD) is de taak om een woord in een gegeven context te associëren met de meest geschikte betekenis uit een reeks mogelijke kandidaten. Hoewel de taak recentelijk hernieuwde interesse heeft gekend, met systemen die prestaties behalen boven de geschatte overeenstemming tussen annotatoren, worstelt het nog steeds om toepassingen in de praktijk te vinden op het moment van schrijven. We betogen dat een van de redenen hiervoor de moeilijkheid is om WSD toe te passen op gewone tekst. Inderdaad, in de standaard formulering werken modellen onder de aannames dat a) alle te ontwarren stukken al zijn geïdentificeerd, en b) alle mogelijke kandidaatbetekenissen van elk stuk worden verstrekt, beide vereisten die verre van triviaal zijn. In dit werk presenteren we een nieuwe taak genaamd Woordbetekeniskoppeling (WSL) waarbij, gegeven een invoertekst en een referentiebetekenisinventaris, systemen zowel moeten identificeren welke stukken moeten worden ontward als deze vervolgens moeten koppelen aan hun meest geschikte betekenis. We introduceren een op transformer gebaseerde architectuur voor de taak en evalueren grondig zowel de prestaties ervan als die van state-of-the-art WSD-systemen geschaald naar WSL, waarbij we iteratief de aannames van WSD versoepelen. We hopen dat ons werk gemakkelijkere integratie van lexicale semantiek in toepassingen in de praktijk zal bevorderen.
English
Word Sense Disambiguation (WSD) is the task of associating a word in a given
context with its most suitable meaning among a set of possible candidates.
While the task has recently witnessed renewed interest, with systems achieving
performances above the estimated inter-annotator agreement, at the time of
writing it still struggles to find downstream applications. We argue that one
of the reasons behind this is the difficulty of applying WSD to plain text.
Indeed, in the standard formulation, models work under the assumptions that a)
all the spans to disambiguate have already been identified, and b) all the
possible candidate senses of each span are provided, both of which are
requirements that are far from trivial. In this work, we present a new task
called Word Sense Linking (WSL) where, given an input text and a reference
sense inventory, systems have to both identify which spans to disambiguate and
then link them to their most suitable meaning.We put forward a
transformer-based architecture for the task and thoroughly evaluate both its
performance and those of state-of-the-art WSD systems scaled to WSL,
iteratively relaxing the assumptions of WSD. We hope that our work will foster
easier integration of lexical semantics into downstream applications.