ChatPaper.aiChatPaper

Wortbedeutungsverknüpfung: Disambiguierung außerhalb des Sandkastens

Word Sense Linking: Disambiguating Outside the Sandbox

December 12, 2024
Autoren: Andrei Stefan Bejgu, Edoardo Barba, Luigi Procopio, Alberte Fernández-Castro, Roberto Navigli
cs.AI

Zusammenfassung

Die Wortbedeutungsdifferenzierung (WSD) ist die Aufgabe, ein Wort in einem gegebenen Kontext mit seiner am besten geeigneten Bedeutung aus einer Reihe möglicher Kandidaten zu verknüpfen. Obwohl die Aufgabe in letzter Zeit ein erneuertes Interesse erfahren hat und Systeme Leistungen erzielen, die über die geschätzte Übereinstimmung zwischen Annotatoren hinausgehen, hat sie zum Zeitpunkt der Abfassung immer noch Schwierigkeiten, Anwendungen in der Praxis zu finden. Wir argumentieren, dass einer der Gründe dafür die Schwierigkeit ist, WSD auf einfachen Text anzuwenden. Tatsächlich arbeiten Modelle in der Standardformulierung unter der Annahme, dass a) alle zu differenzierenden Bereiche bereits identifiziert wurden und b) alle möglichen Kandidatenbedeutungen jedes Bereichs angegeben sind, was beides Anforderungen sind, die keineswegs trivial sind. In dieser Arbeit stellen wir eine neue Aufgabe namens Wortbedeutungsverknüpfung (WSL) vor, bei der Systeme anhand eines Eingabetextes und eines Referenzbedeutungsinventars sowohl identifizieren müssen, welche Bereiche zu differenzieren sind, als auch diese dann mit ihrer am besten geeigneten Bedeutung verknüpfen müssen. Wir präsentieren eine auf Transformer basierende Architektur für die Aufgabe und evaluieren gründlich sowohl deren Leistung als auch die von modernsten WSD-Systemen, die auf WSL skaliert sind, wobei wir die Annahmen von WSD iterativ lockern. Wir hoffen, dass unsere Arbeit die einfachere Integration lexikalischer Semantik in nachgelagerte Anwendungen fördern wird.
English
Word Sense Disambiguation (WSD) is the task of associating a word in a given context with its most suitable meaning among a set of possible candidates. While the task has recently witnessed renewed interest, with systems achieving performances above the estimated inter-annotator agreement, at the time of writing it still struggles to find downstream applications. We argue that one of the reasons behind this is the difficulty of applying WSD to plain text. Indeed, in the standard formulation, models work under the assumptions that a) all the spans to disambiguate have already been identified, and b) all the possible candidate senses of each span are provided, both of which are requirements that are far from trivial. In this work, we present a new task called Word Sense Linking (WSL) where, given an input text and a reference sense inventory, systems have to both identify which spans to disambiguate and then link them to their most suitable meaning.We put forward a transformer-based architecture for the task and thoroughly evaluate both its performance and those of state-of-the-art WSD systems scaled to WSL, iteratively relaxing the assumptions of WSD. We hope that our work will foster easier integration of lexical semantics into downstream applications.

Summary

AI-Generated Summary

PDF92December 13, 2024