ChatPaper.aiChatPaper

少なく示し、多くを教える:ゼロショットNERのための定義とガイドラインによるプロンプトの充実化

Show Less, Instruct More: Enriching Prompts with Definitions and Guidelines for Zero-Shot NER

July 1, 2024
著者: Andrew Zamai, Andrea Zugarini, Leonardo Rigutini, Marco Ernandes, Marco Maggini
cs.AI

要旨

最近、固有表現認識(NER)に特化した命令チューニング済み大規模言語モデル(LLMs)がいくつか登場しています。従来のNERアプローチと比較して、これらのモデルは強力な汎化能力を有しています。既存のLLMsは主に、ドメイン外分布におけるゼロショットNERに焦点を当てており、テストセットと高度にまたは完全に重複する多数のエンティティクラスに対してファインチューニングされています。本研究では、それとは異なり、SLIMERというアプローチを提案します。SLIMERは、未見の固有表現タグに対処するために設計されており、より少ない例でモデルを指導し、定義とガイドラインを組み込んだプロンプトを活用します。実験結果から、定義とガイドラインが、特に未見の固有表現のラベリングにおいて、より良い性能、迅速かつ堅牢な学習をもたらすことが示されています。さらに、SLIMERは、削減されたタグセットでトレーニングされながらも、ドメイン外ゼロショットNERにおいて最先端のアプローチと同等の性能を発揮します。
English
Recently, several specialized instruction-tuned Large Language Models (LLMs) for Named Entity Recognition (NER) have emerged. Compared to traditional NER approaches, these models have strong generalization capabilities. Existing LLMs mainly focus on zero-shot NER in out-of-domain distributions, being fine-tuned on an extensive number of entity classes that often highly or completely overlap with test sets. In this work instead, we propose SLIMER, an approach designed to tackle never-seen-before named entity tags by instructing the model on fewer examples, and by leveraging a prompt enriched with definition and guidelines. Experiments demonstrate that definition and guidelines yield better performance, faster and more robust learning, particularly when labelling unseen Named Entities. Furthermore, SLIMER performs comparably to state-of-the-art approaches in out-of-domain zero-shot NER, while being trained on a reduced tag set.

Summary

AI-Generated Summary

PDF91November 28, 2024