Ridurre il Divario nella Valutazione della Conoscenza: Risposte a Domande in Dominio Aperto con Granularità Multipla
Narrowing the Knowledge Evaluation Gap: Open-Domain Question Answering with Multi-Granularity Answers
January 9, 2024
Autori: Gal Yona, Roee Aharoni, Mor Geva
cs.AI
Abstract
Le domande fattuali possono tipicamente essere risposte correttamente a diversi livelli di granularità. Ad esempio, sia "4 agosto 1961" che "1961" sono risposte corrette alla domanda "Quando è nato Barack Obama?". Tuttavia, i protocolli standard di valutazione per il question answering (QA) non tengono esplicitamente conto di questo aspetto e confrontano una risposta prevista con risposte di un unico livello di granularità. In questo lavoro, proponiamo GRANOLA QA, una nuova impostazione di valutazione in cui una risposta prevista viene valutata in termini di accuratezza e informatività rispetto a un insieme di risposte multi-granularità. Presentiamo una metodologia semplice per arricchire i dataset esistenti con risposte multi-granularità e creiamo GRANOLA-EQ, una versione multi-granularità del dataset EntityQuestions. Valutiamo una gamma di metodi di decodifica su GRANOLA-EQ, inclusa un nuovo algoritmo chiamato Decoding with Response Aggregation (DRAG), che è progettato per allineare la granularità della risposta con l'incertezza del modello. I nostri esperimenti mostrano che i grandi modelli linguistici con decodifica standard tendono a generare risposte specifiche, che spesso sono errate. Al contrario, quando valutati su risposte multi-granularità, DRAG produce un aumento medio di quasi 20 punti in accuratezza, che aumenta ulteriormente per entità rare. Nel complesso, ciò rivela che i metodi standard di valutazione e decodifica possono sottostimare significativamente la conoscenza racchiusa nei modelli linguistici.
English
Factual questions typically can be answered correctly at different levels of
granularity. For example, both ``August 4, 1961'' and ``1961'' are correct
answers to the question ``When was Barack Obama born?''. Standard question
answering (QA) evaluation protocols, however, do not explicitly take this into
account and compare a predicted answer against answers of a single granularity
level. In this work, we propose GRANOLA QA, a novel evaluation setting where a
predicted answer is evaluated in terms of accuracy and informativeness against
a set of multi-granularity answers. We present a simple methodology for
enriching existing datasets with multi-granularity answers, and create
GRANOLA-EQ, a multi-granularity version of the EntityQuestions dataset. We
evaluate a range of decoding methods on GRANOLA-EQ, including a new algorithm,
called Decoding with Response Aggregation (DRAG), that is geared towards
aligning the response granularity with the model's uncertainty. Our experiments
show that large language models with standard decoding tend to generate
specific answers, which are often incorrect. In contrast, when evaluated on
multi-granularity answers, DRAG yields a nearly 20 point increase in accuracy
on average, which further increases for rare entities. Overall, this reveals
that standard evaluation and decoding schemes may significantly underestimate
the knowledge encapsulated in LMs.