ChatPaper.aiChatPaper

E^2Rank: Il tuo Embedding Testuale può Anche Essere un Reranker Listwise Efficace ed Efficiente

E^2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker

October 26, 2025
Autori: Qi Liu, Yanzhao Zhang, Mingxin Li, Dingkun Long, Pengjun Xie, Jiaxin Mao
cs.AI

Abstract

I modelli di embedding testuale costituiscono un componente fondamentale nelle applicazioni di ricerca reali. Mappando query e documenti in uno spazio di embedding condiviso, forniscono prestazioni di retrieval competitive con alta efficienza. Tuttavia, la loro fedeltà di ranking rimane limitata rispetto ai reranker dedicati, in particolare ai recenti reranker listwise basati su LLM, che catturano interazioni granulari query-documento e documento-documento. In questo articolo, proponiamo un framework unificato semplice ma efficace chiamato E²Rank (che significa Efficient Embedding-based Ranking, ma anche Embedding-to-Rank), che estende un singolo modello di embedding testuale per eseguire sia retrieval di alta qualità che reranking listwise attraverso un addestramento continuato sotto un obiettivo di ranking listwise, raggiungendo così una forte efficacia con notevole efficienza. Utilizzando la similarità del coseno tra gli embedding della query e del documento come funzione di ranking unificata, il prompt di ranking listwise, costruito dalla query originale e dai suoi documenti candidati, funge da query arricchita con segnali provenienti dai top-K documenti, simile al feedback di pseudo-rilevanza (PRF) nei modelli di retrieval tradizionali. Questo design preserva l'efficienza e la qualità rappresentativa del modello di embedding base, migliorando significativamente le sue prestazioni di reranking. Empiricamente, E²Rank raggiunge risultati all'avanguardia sul benchmark di reranking BEIR e dimostra prestazioni competitive sul benchmark ad intenso ragionamento BRIGHT, con una latenza di reranking molto bassa. Mostriamo inoltre che il processo di addestramento al ranking migliora le prestazioni dell'embedding sul benchmark MTEB. I nostri risultati indicano che un singolo modello di embedding può unificare efficacemente retrieval e reranking, offrendo sia efficienza computazionale che accuratezza di ranking competitiva.
English
Text embedding models serve as a fundamental component in real-world search applications. By mapping queries and documents into a shared embedding space, they deliver competitive retrieval performance with high efficiency. However, their ranking fidelity remains limited compared to dedicated rerankers, especially recent LLM-based listwise rerankers, which capture fine-grained query-document and document-document interactions. In this paper, we propose a simple yet effective unified framework E^2Rank, means Efficient Embedding-based Ranking (also means Embedding-to-Rank), which extends a single text embedding model to perform both high-quality retrieval and listwise reranking through continued training under a listwise ranking objective, thereby achieving strong effectiveness with remarkable efficiency. By applying cosine similarity between the query and document embeddings as a unified ranking function, the listwise ranking prompt, which is constructed from the original query and its candidate documents, serves as an enhanced query enriched with signals from the top-K documents, akin to pseudo-relevance feedback (PRF) in traditional retrieval models. This design preserves the efficiency and representational quality of the base embedding model while significantly improving its reranking performance. Empirically, E^2Rank achieves state-of-the-art results on the BEIR reranking benchmark and demonstrates competitive performance on the reasoning-intensive BRIGHT benchmark, with very low reranking latency. We also show that the ranking training process improves embedding performance on the MTEB benchmark. Our findings indicate that a single embedding model can effectively unify retrieval and reranking, offering both computational efficiency and competitive ranking accuracy.
PDF311December 3, 2025