ChatPaper.aiChatPaper

Colapso dos Recuperadores Densos: Vieses Curtos, Precoces e Literais Superando Evidências Factuais

Collapse of Dense Retrievers: Short, Early, and Literal Biases Outranking Factual Evidence

March 6, 2025
Autores: Mohsen Fayyaz, Ali Modarressi, Hinrich Schuetze, Nanyun Peng
cs.AI

Resumo

Modelos de recuperação densa são comumente utilizados em aplicações de Recuperação de Informação (RI), como Geração Aumentada por Recuperação (RAG). Como frequentemente servem como o primeiro passo nesses sistemas, sua robustez é crucial para evitar falhas. Neste trabalho, ao reaproveitar um conjunto de dados de extração de relações (por exemplo, Re-DocRED), projetamos experimentos controlados para quantificar o impacto de vieses heurísticos, como a preferência por documentos mais curtos, em recuperadores como Dragon+ e Contriever. Nossas descobertas revelam vulnerabilidades significativas: os recuperadores frequentemente dependem de padrões superficiais, como priorizar excessivamente o início dos documentos, documentos mais curtos, entidades repetidas e correspondências literais. Além disso, eles tendem a ignorar se o documento contém a resposta à consulta, demonstrando uma falta de compreensão semântica profunda. Notavelmente, quando múltiplos vieses se combinam, os modelos exibem uma degradação catastrófica de desempenho, selecionando o documento que contém a resposta em menos de 3% dos casos em detrimento de um documento enviesado sem a resposta. Adicionalmente, mostramos que esses vieses têm consequências diretas para aplicações subsequentes como RAG, onde documentos preferidos pela recuperação podem enganar LLMs, resultando em uma queda de 34% no desempenho em comparação com não fornecer nenhum documento.
English
Dense retrieval models are commonly used in Information Retrieval (IR) applications, such as Retrieval-Augmented Generation (RAG). Since they often serve as the first step in these systems, their robustness is critical to avoid failures. In this work, by repurposing a relation extraction dataset (e.g. Re-DocRED), we design controlled experiments to quantify the impact of heuristic biases, such as favoring shorter documents, in retrievers like Dragon+ and Contriever. Our findings reveal significant vulnerabilities: retrievers often rely on superficial patterns like over-prioritizing document beginnings, shorter documents, repeated entities, and literal matches. Additionally, they tend to overlook whether the document contains the query's answer, lacking deep semantic understanding. Notably, when multiple biases combine, models exhibit catastrophic performance degradation, selecting the answer-containing document in less than 3% of cases over a biased document without the answer. Furthermore, we show that these biases have direct consequences for downstream applications like RAG, where retrieval-preferred documents can mislead LLMs, resulting in a 34% performance drop than not providing any documents at all.

Summary

AI-Generated Summary

PDF42March 12, 2025