Проверка фактов на основе доказательств с использованием RAG и обучения с малым количеством примеров в контексте с LLM.
Evidence-backed Fact Checking using RAG and Few-Shot In-Context Learning with LLMs
August 22, 2024
Авторы: Ronit Singhal, Pransh Patwa, Parth Patwa, Aman Chadha, Amitava Das
cs.AI
Аннотация
Учитывая широкое распространение дезинформации в социальных сетях, внедрение механизмов факт-чекинга для онлайн утверждений является необходимым. Ручная проверка каждого утверждения представляет собой значительное испытание, что подчеркивает необходимость автоматизированной системы факт-чекинга. В данной статье представлена наша система, разработанная для решения этой проблемы. Мы используем набор данных Averitec для оценки достоверности утверждений. Помимо прогнозирования достоверности, наша система предоставляет подтверждающие данные, извлеченные из набора данных. Мы разработали конвейер Retrieve and Generate (RAG) для извлечения соответствующих предложений-доказательств из базы знаний, которые затем вводятся вместе с утверждением в большую языковую модель (LLM) для классификации. Мы также оцениваем возможности многократного обучения в контексте (ICL) нескольких LLM. Наша система достигает показателя 'Averitec' в 0.33, что составляет улучшение на 22% по сравнению с базовым уровнем. Весь код будет доступен на https://github.com/ronit-singhal/evidence-backed-fact-checking-using-rag-and-few-shot-in-context-learning-with-llms.
English
Given the widespread dissemination of misinformation on social media,
implementing fact-checking mechanisms for online claims is essential. Manually
verifying every claim is highly challenging, underscoring the need for an
automated fact-checking system. This paper presents our system designed to
address this issue. We utilize the Averitec dataset to assess the veracity of
claims. In addition to veracity prediction, our system provides supporting
evidence, which is extracted from the dataset. We develop a Retrieve and
Generate (RAG) pipeline to extract relevant evidence sentences from a knowledge
base, which are then inputted along with the claim into a large language model
(LLM) for classification. We also evaluate the few-shot In-Context Learning
(ICL) capabilities of multiple LLMs. Our system achieves an 'Averitec' score of
0.33, which is a 22% absolute improvement over the baseline. All code will be
made available on All code will be made available on
https://github.com/ronit-singhal/evidence-backed-fact-checking-using-rag-and-few-shot-in-context-learning-with-llms.Summary
AI-Generated Summary