ChatPaper.aiChatPaper

Instorting van Dichte Retrievers: Korte, Vroege en Letterlijke Vooroordelen die Feitelijk Bewijs Overtreffen

Collapse of Dense Retrievers: Short, Early, and Literal Biases Outranking Factual Evidence

March 6, 2025
Auteurs: Mohsen Fayyaz, Ali Modarressi, Hinrich Schuetze, Nanyun Peng
cs.AI

Samenvatting

Dichte retrievalsystemen worden vaak gebruikt in Informatie Retrieval (IR)-toepassingen, zoals Retrieval-Augmented Generation (RAG). Omdat ze meestal de eerste stap in deze systemen vormen, is hun robuustheid cruciaal om fouten te voorkomen. In dit werk ontwerpen we, door een dataset voor relatie-extractie (bijv. Re-DocRED) te hergebruiken, gecontroleerde experimenten om de impact van heuristische biases, zoals het bevoordelen van kortere documenten, in retrievers zoals Dragon+ en Contriever te kwantificeren. Onze bevindingen onthullen significante kwetsbaarheden: retrievers vertrouwen vaak op oppervlakkige patronen zoals het overmatig prioriteren van het begin van documenten, kortere documenten, herhaalde entiteiten en letterlijke overeenkomsten. Daarnaast negeren ze vaak of het document het antwoord op de query bevat, wat wijst op een gebrek aan diepgaand semantisch begrip. Opmerkelijk is dat wanneer meerdere biases zich combineren, modellen een catastrofale prestatievermindering vertonen, waarbij ze in minder dan 3% van de gevallen het document met het antwoord selecteren boven een bevooroordeeld document zonder het antwoord. Bovendien tonen we aan dat deze biases directe gevolgen hebben voor downstream-toepassingen zoals RAG, waarbij door de retriever geprefereerde documenten grote taalmodellen (LLMs) kunnen misleiden, wat resulteert in een prestatievermindering van 34% in vergelijking met het niet verstrekken van documenten.
English
Dense retrieval models are commonly used in Information Retrieval (IR) applications, such as Retrieval-Augmented Generation (RAG). Since they often serve as the first step in these systems, their robustness is critical to avoid failures. In this work, by repurposing a relation extraction dataset (e.g. Re-DocRED), we design controlled experiments to quantify the impact of heuristic biases, such as favoring shorter documents, in retrievers like Dragon+ and Contriever. Our findings reveal significant vulnerabilities: retrievers often rely on superficial patterns like over-prioritizing document beginnings, shorter documents, repeated entities, and literal matches. Additionally, they tend to overlook whether the document contains the query's answer, lacking deep semantic understanding. Notably, when multiple biases combine, models exhibit catastrophic performance degradation, selecting the answer-containing document in less than 3% of cases over a biased document without the answer. Furthermore, we show that these biases have direct consequences for downstream applications like RAG, where retrieval-preferred documents can mislead LLMs, resulting in a 34% performance drop than not providing any documents at all.

Summary

AI-Generated Summary

PDF42March 12, 2025