ChatPaper.aiChatPaper

Crollo dei Recuperatori Densi: Pregiudizi Brevi, Precoci e Letterali Che Superano le Prove Fattuali

Collapse of Dense Retrievers: Short, Early, and Literal Biases Outranking Factual Evidence

March 6, 2025
Autori: Mohsen Fayyaz, Ali Modarressi, Hinrich Schuetze, Nanyun Peng
cs.AI

Abstract

I modelli di retrieval denso sono comunemente utilizzati nelle applicazioni di Information Retrieval (IR), come il Retrieval-Augmented Generation (RAG). Poiché spesso rappresentano il primo passo in questi sistemi, la loro robustezza è fondamentale per evitare fallimenti. In questo lavoro, riutilizzando un dataset di estrazione di relazioni (ad esempio Re-DocRED), progettiamo esperimenti controllati per quantificare l'impatto di bias euristici, come la preferenza per documenti più brevi, in retriever come Dragon+ e Contriever. I nostri risultati rivelano vulnerabilità significative: i retriever spesso si affidano a pattern superficiali come la sovrappriorizzazione degli inizi dei documenti, documenti più corti, entità ripetute e corrispondenze letterali. Inoltre, tendono a trascurare se il documento contenga la risposta alla query, mancando di una comprensione semantica profonda. In modo particolare, quando più bias si combinano, i modelli mostrano un degrado catastrofico delle prestazioni, selezionando il documento contenente la risposta in meno del 3% dei casi rispetto a un documento distorto senza la risposta. Inoltre, dimostriamo che questi bias hanno conseguenze dirette per applicazioni downstream come il RAG, dove i documenti preferiti dal retrieval possono fuorviare i LLM, causando un calo del 34% delle prestazioni rispetto al non fornire alcun documento.
English
Dense retrieval models are commonly used in Information Retrieval (IR) applications, such as Retrieval-Augmented Generation (RAG). Since they often serve as the first step in these systems, their robustness is critical to avoid failures. In this work, by repurposing a relation extraction dataset (e.g. Re-DocRED), we design controlled experiments to quantify the impact of heuristic biases, such as favoring shorter documents, in retrievers like Dragon+ and Contriever. Our findings reveal significant vulnerabilities: retrievers often rely on superficial patterns like over-prioritizing document beginnings, shorter documents, repeated entities, and literal matches. Additionally, they tend to overlook whether the document contains the query's answer, lacking deep semantic understanding. Notably, when multiple biases combine, models exhibit catastrophic performance degradation, selecting the answer-containing document in less than 3% of cases over a biased document without the answer. Furthermore, we show that these biases have direct consequences for downstream applications like RAG, where retrieval-preferred documents can mislead LLMs, resulting in a 34% performance drop than not providing any documents at all.
PDF42March 12, 2025