ChatPaper.aiChatPaper

Нулевой поиск с плотным извлечением с использованием векторных представлений обратной связи по релевантности

Zero-Shot Dense Retrieval with Embeddings from Relevance Feedback

October 28, 2024
Авторы: Nour Jedidi, Yung-Sung Chuang, Leslie Shing, James Glass
cs.AI

Аннотация

Построение эффективных систем плотного извлечения остаётся сложной задачей, когда недоступен контроль за релевантностью. Недавние исследования пытались преодолеть этот вызов, используя большую языковую модель (Large Language Model, LLM) для генерации гипотетических документов, которые могут быть использованы для нахождения ближайшего реального документа. Однако этот подход полностью зависит от того, что у LLM есть областные знания, соответствующие запросу, что может быть непрактично. Кроме того, генерация гипотетических документов может быть неэффективной, поскольку требуется, чтобы LLM генерировала большое количество токенов для каждого запроса. Для решения этих проблем мы представляем Векторные Вложения Реальных Документов с Обратной Связью по Релевантности (Real Document Embeddings from Relevance Feedback, ReDE-RF). Вдохновленный обратной связью по релевантности, ReDE-RF предлагает переосмыслить генерацию гипотетических документов как задачу оценки релевантности, используя LLM для выбора документов, которые следует использовать для поиска ближайших соседей. Благодаря этому переосмыслению, LLM больше не требуется областных знаний, а лишь способность оценить, что является релевантным. Кроме того, оценка релевантности требует от LLM вывода всего одного токена, что улучшает задержку поиска. Наши эксперименты показывают, что ReDE-RF последовательно превосходит современные методы плотного извлечения без обучения на широком спектре наборов данных с ограниченными ресурсами, а также значительно улучшает задержку на каждый запрос.
English
Building effective dense retrieval systems remains difficult when relevance supervision is not available. Recent work has looked to overcome this challenge by using a Large Language Model (LLM) to generate hypothetical documents that can be used to find the closest real document. However, this approach relies solely on the LLM to have domain-specific knowledge relevant to the query, which may not be practical. Furthermore, generating hypothetical documents can be inefficient as it requires the LLM to generate a large number of tokens for each query. To address these challenges, we introduce Real Document Embeddings from Relevance Feedback (ReDE-RF). Inspired by relevance feedback, ReDE-RF proposes to re-frame hypothetical document generation as a relevance estimation task, using an LLM to select which documents should be used for nearest neighbor search. Through this re-framing, the LLM no longer needs domain-specific knowledge but only needs to judge what is relevant. Additionally, relevance estimation only requires the LLM to output a single token, thereby improving search latency. Our experiments show that ReDE-RF consistently surpasses state-of-the-art zero-shot dense retrieval methods across a wide range of low-resource retrieval datasets while also making significant improvements in latency per-query.

Summary

AI-Generated Summary

PDF82November 16, 2024