ChatPaper.aiChatPaper

Mostra Meno, Istruisci di Più: Arricchire i Prompt con Definizioni e Linee Guida per il NER Zero-Shot

Show Less, Instruct More: Enriching Prompts with Definitions and Guidelines for Zero-Shot NER

July 1, 2024
Autori: Andrew Zamai, Andrea Zugarini, Leonardo Rigutini, Marco Ernandes, Marco Maggini
cs.AI

Abstract

Recentemente, sono emersi diversi modelli linguistici di grandi dimensioni (LLM) specializzati e ottimizzati per istruzioni nel campo del Riconoscimento di Entità Nominate (NER). Rispetto agli approcci tradizionali al NER, questi modelli possiedono forti capacità di generalizzazione. Gli LLM esistenti si concentrano principalmente sul NER zero-shot in distribuzioni fuori dominio, essendo stati ottimizzati su un ampio numero di classi di entità che spesso si sovrappongono in modo significativo o completo con i set di test. In questo lavoro, invece, proponiamo SLIMER, un approccio progettato per affrontare tag di entità nominate mai visti prima, istruendo il modello su un numero ridotto di esempi e sfruttando un prompt arricchito con definizioni e linee guida. Gli esperimenti dimostrano che l'uso di definizioni e linee guida produce prestazioni migliori, un apprendimento più rapido e robusto, in particolare quando si etichettano entità nominate mai viste. Inoltre, SLIMER si comporta in modo comparabile agli approcci all'avanguardia nel NER zero-shot fuori dominio, pur essendo addestrato su un set ridotto di tag.
English
Recently, several specialized instruction-tuned Large Language Models (LLMs) for Named Entity Recognition (NER) have emerged. Compared to traditional NER approaches, these models have strong generalization capabilities. Existing LLMs mainly focus on zero-shot NER in out-of-domain distributions, being fine-tuned on an extensive number of entity classes that often highly or completely overlap with test sets. In this work instead, we propose SLIMER, an approach designed to tackle never-seen-before named entity tags by instructing the model on fewer examples, and by leveraging a prompt enriched with definition and guidelines. Experiments demonstrate that definition and guidelines yield better performance, faster and more robust learning, particularly when labelling unseen Named Entities. Furthermore, SLIMER performs comparably to state-of-the-art approaches in out-of-domain zero-shot NER, while being trained on a reduced tag set.
PDF91November 28, 2024