Wortbedeutungsverknüpfung: Disambiguierung außerhalb des Sandkastens
Word Sense Linking: Disambiguating Outside the Sandbox
December 12, 2024
Autoren: Andrei Stefan Bejgu, Edoardo Barba, Luigi Procopio, Alberte Fernández-Castro, Roberto Navigli
cs.AI
Zusammenfassung
Die Wortbedeutungsdifferenzierung (WSD) ist die Aufgabe, ein Wort in einem gegebenen Kontext mit seiner am besten geeigneten Bedeutung aus einer Reihe möglicher Kandidaten zu verknüpfen. Obwohl die Aufgabe in letzter Zeit ein erneuertes Interesse erfahren hat und Systeme Leistungen erzielen, die über die geschätzte Übereinstimmung zwischen Annotatoren hinausgehen, hat sie zum Zeitpunkt der Abfassung immer noch Schwierigkeiten, Anwendungen in der Praxis zu finden. Wir argumentieren, dass einer der Gründe dafür die Schwierigkeit ist, WSD auf einfachen Text anzuwenden. Tatsächlich arbeiten Modelle in der Standardformulierung unter der Annahme, dass a) alle zu differenzierenden Bereiche bereits identifiziert wurden und b) alle möglichen Kandidatenbedeutungen jedes Bereichs angegeben sind, was beides Anforderungen sind, die keineswegs trivial sind. In dieser Arbeit stellen wir eine neue Aufgabe namens Wortbedeutungsverknüpfung (WSL) vor, bei der Systeme anhand eines Eingabetextes und eines Referenzbedeutungsinventars sowohl identifizieren müssen, welche Bereiche zu differenzieren sind, als auch diese dann mit ihrer am besten geeigneten Bedeutung verknüpfen müssen. Wir präsentieren eine auf Transformer basierende Architektur für die Aufgabe und evaluieren gründlich sowohl deren Leistung als auch die von modernsten WSD-Systemen, die auf WSL skaliert sind, wobei wir die Annahmen von WSD iterativ lockern. Wir hoffen, dass unsere Arbeit die einfachere Integration lexikalischer Semantik in nachgelagerte Anwendungen fördern wird.
English
Word Sense Disambiguation (WSD) is the task of associating a word in a given
context with its most suitable meaning among a set of possible candidates.
While the task has recently witnessed renewed interest, with systems achieving
performances above the estimated inter-annotator agreement, at the time of
writing it still struggles to find downstream applications. We argue that one
of the reasons behind this is the difficulty of applying WSD to plain text.
Indeed, in the standard formulation, models work under the assumptions that a)
all the spans to disambiguate have already been identified, and b) all the
possible candidate senses of each span are provided, both of which are
requirements that are far from trivial. In this work, we present a new task
called Word Sense Linking (WSL) where, given an input text and a reference
sense inventory, systems have to both identify which spans to disambiguate and
then link them to their most suitable meaning.We put forward a
transformer-based architecture for the task and thoroughly evaluate both its
performance and those of state-of-the-art WSD systems scaled to WSL,
iteratively relaxing the assumptions of WSD. We hope that our work will foster
easier integration of lexical semantics into downstream applications.Summary
AI-Generated Summary