Reduzindo a Lacuna na Avaliação de Conhecimento: Resposta a Perguntas de Domínio Aberto com Respostas de Multi-Granularidade
Narrowing the Knowledge Evaluation Gap: Open-Domain Question Answering with Multi-Granularity Answers
January 9, 2024
Autores: Gal Yona, Roee Aharoni, Mor Geva
cs.AI
Resumo
Perguntas factuais geralmente podem ser respondidas corretamente em diferentes níveis de granularidade. Por exemplo, tanto "4 de agosto de 1961" quanto "1961" são respostas corretas para a pergunta "Quando Barack Obama nasceu?". No entanto, os protocolos padrão de avaliação de question answering (QA) não levam isso explicitamente em consideração e comparam uma resposta prevista com respostas de um único nível de granularidade. Neste trabalho, propomos o GRANOLA QA, um novo cenário de avaliação em que uma resposta prevista é avaliada em termos de precisão e informatividade em relação a um conjunto de respostas de múltiplas granularidades. Apresentamos uma metodologia simples para enriquecer conjuntos de dados existentes com respostas de múltiplas granularidades e criamos o GRANOLA-EQ, uma versão de múltiplas granularidades do conjunto de dados EntityQuestions. Avaliamos uma variedade de métodos de decodificação no GRANOLA-EQ, incluindo um novo algoritmo, chamado Decoding with Response Aggregation (DRAG), que visa alinhar a granularidade da resposta com a incerteza do modelo. Nossos experimentos mostram que modelos de linguagem grandes com decodificação padrão tendem a gerar respostas específicas, que frequentemente estão incorretas. Em contraste, quando avaliados em respostas de múltiplas granularidades, o DRAG resulta em um aumento médio de quase 20 pontos na precisão, que aumenta ainda mais para entidades raras. No geral, isso revela que os esquemas padrão de avaliação e decodificação podem subestimar significativamente o conhecimento encapsulado nos modelos de linguagem.
English
Factual questions typically can be answered correctly at different levels of
granularity. For example, both ``August 4, 1961'' and ``1961'' are correct
answers to the question ``When was Barack Obama born?''. Standard question
answering (QA) evaluation protocols, however, do not explicitly take this into
account and compare a predicted answer against answers of a single granularity
level. In this work, we propose GRANOLA QA, a novel evaluation setting where a
predicted answer is evaluated in terms of accuracy and informativeness against
a set of multi-granularity answers. We present a simple methodology for
enriching existing datasets with multi-granularity answers, and create
GRANOLA-EQ, a multi-granularity version of the EntityQuestions dataset. We
evaluate a range of decoding methods on GRANOLA-EQ, including a new algorithm,
called Decoding with Response Aggregation (DRAG), that is geared towards
aligning the response granularity with the model's uncertainty. Our experiments
show that large language models with standard decoding tend to generate
specific answers, which are often incorrect. In contrast, when evaluated on
multi-granularity answers, DRAG yields a nearly 20 point increase in accuracy
on average, which further increases for rare entities. Overall, this reveals
that standard evaluation and decoding schemes may significantly underestimate
the knowledge encapsulated in LMs.