ChatPaper.aiChatPaper

RepLiQA: Ein Frage-Antwort-Datensatz zur Bewertung von LLMs anhand von ungesehenem Referenzinhalt

RepLiQA: A Question-Answering Dataset for Benchmarking LLMs on Unseen Reference Content

June 17, 2024
Autoren: Joao Monteiro, Pierre-Andre Noel, Etienne Marcotte, Sai Rajeswar, Valentina Zantedeschi, David Vazquez, Nicolas Chapados, Christopher Pal, Perouz Taslakian
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) werden auf riesigen Datenmengen trainiert, die größtenteils automatisch aus dem Internet extrahiert werden. Diese Daten umfassen enzyklopädische Dokumente, die eine große Menge an Allgemeinwissen enthalten (z. B. Wikipedia), aber auch potenziell mit Benchmark-Datensätzen überlappen, die zur Evaluierung von LLMs verwendet werden. Daher ist die Bewertung von Modellen anhand von Testaufteilungen, die möglicherweise in den Trainingssatz gelangt sind, anfällig für irreführende Schlussfolgerungen. Um eine fundierte Bewertung von Sprachmodellen zu fördern, stellen wir einen neuen Testdatensatz namens RepLiQA vor, der für Frage-Antwort- und Themenabrufaufgaben geeignet ist. RepLiQA ist eine Sammlung von fünf Aufteilungen von Testsets, von denen vier vor dieser Veröffentlichung nicht ins Internet gestellt oder LLM-APIs ausgesetzt wurden. Jedes Beispiel in RepLiQA besteht aus (1) einem von einem menschlichen Annotator erstellten Referenzdokument, das ein imaginäres Szenario darstellt (z. B. ein Nachrichtenartikel), das nicht im Internet vorhanden ist; (2) einer Frage zum Thema des Dokuments; (3) einer aus dem Dokument direkt abgeleiteten richtigen Antwort; und (4) dem Absatz aus dem Referenzdokument, der die Antwort enthält. Daher können genaue Antworten nur generiert werden, wenn ein Modell relevante Inhalte im bereitgestellten Dokument finden kann. Wir führen einen groß angelegten Benchmark durch, der mehrere erstklassige LLMs umfasst, um Unterschiede in der Leistung verschiedener Modelle unterschiedlicher Typen und Größen in einem kontextbedingten Sprachmodellierungsumfeld aufzudecken. Veröffentlichte Aufteilungen von RepLiQA finden Sie hier: https://huggingface.co/datasets/ServiceNow/repliqa.
English
Large Language Models (LLMs) are trained on vast amounts of data, most of which is automatically scraped from the internet. This data includes encyclopedic documents that harbor a vast amount of general knowledge (e.g., Wikipedia) but also potentially overlap with benchmark datasets used for evaluating LLMs. Consequently, evaluating models on test splits that might have leaked into the training set is prone to misleading conclusions. To foster sound evaluation of language models, we introduce a new test dataset named RepLiQA, suited for question-answering and topic retrieval tasks. RepLiQA is a collection of five splits of test sets, four of which have not been released to the internet or exposed to LLM APIs prior to this publication. Each sample in RepLiQA comprises (1) a reference document crafted by a human annotator and depicting an imaginary scenario (e.g., a news article) absent from the internet; (2) a question about the document's topic; (3) a ground-truth answer derived directly from the information in the document; and (4) the paragraph extracted from the reference document containing the answer. As such, accurate answers can only be generated if a model can find relevant content within the provided document. We run a large-scale benchmark comprising several state-of-the-art LLMs to uncover differences in performance across models of various types and sizes in a context-conditional language modeling setting. Released splits of RepLiQA can be found here: https://huggingface.co/datasets/ServiceNow/repliqa.

Summary

AI-Generated Summary

PDF161December 4, 2024