ChatPaper.aiChatPaper

GLiNER multi-task: Modello Generalista Leggero per Varie Attività di Estrazione di Informazioni

GLiNER multi-task: Generalist Lightweight Model for Various Information Extraction Tasks

June 14, 2024
Autori: Ihor Stepanov, Mykhailo Shtopko
cs.AI

Abstract

I compiti di estrazione delle informazioni richiedono modelli accurati, efficienti e generalizzabili. Gli approcci classici di deep learning supervisionato possono raggiungere le prestazioni necessarie, ma hanno bisogno di grandi dataset e sono limitati nella loro capacità di adattarsi a diversi compiti. D'altro canto, i grandi modelli linguistici (LLM) dimostrano una buona generalizzazione, il che significa che possono adattarsi a molti compiti diversi in base alle richieste dell'utente. Tuttavia, gli LLM sono computazionalmente costosi e tendono a fallire nella generazione di output strutturati. In questo articolo, introdurremo un nuovo tipo di modello GLiNER che può essere utilizzato per vari compiti di estrazione delle informazioni pur essendo un piccolo modello di codifica. Il nostro modello ha raggiunto prestazioni SoTA su benchmark NER zero-shot e prestazioni leader nei compiti di risposta alle domande, riassunto ed estrazione di relazioni. Inoltre, in questo articolo, copriremo i risultati sperimentali sugli approcci di auto-apprendimento per il riconoscimento di entità nominate utilizzando modelli GLiNER.
English
Information extraction tasks require both accurate, efficient, and generalisable models. Classical supervised deep learning approaches can achieve the required performance, but they need large datasets and are limited in their ability to adapt to different tasks. On the other hand, large language models (LLMs) demonstrate good generalization, meaning that they can adapt to many different tasks based on user requests. However, LLMs are computationally expensive and tend to fail to generate structured outputs. In this article, we will introduce a new kind of GLiNER model that can be used for various information extraction tasks while being a small encoder model. Our model achieved SoTA performance on zero-shot NER benchmarks and leading performance on question-answering, summarization and relation extraction tasks. Additionally, in this article, we will cover experimental results on self-learning approaches for named entity recognition using GLiNER models.
PDF253December 2, 2024