ChatPaper.aiChatPaper

E^2Rank: Uw tekstinbedding kan ook een effectieve en efficiënte listwise herrangschikker zijn

E^2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker

October 26, 2025
Auteurs: Qi Liu, Yanzhao Zhang, Mingxin Li, Dingkun Long, Pengjun Xie, Jiaxin Mao
cs.AI

Samenvatting

Tekst-embeddingmodellen vormen een fundamenteel onderdeel in real-world zoektoepassingen. Door queries en documenten af te beelden in een gedeelde embeddedingsruimte, leveren ze competitieve retrievalkwaliteit met hoge efficiëntie. Hun rankingnauwkeurigheid blijft echter beperkt in vergelijking met gespecialiseerde rerankers, met name recente listwise rerankers op basis van LLM's, die fijnmazige query-document- en document-documentinteracties vastleggen. In dit artikel stellen we een eenvoudig maar effectief unified framework voor, E^2Rank (Efficient Embedding-based Ranking, ook wel Embedding-to-Rank), dat een enkel tekst-embeddingmodel uitbreidt om zowel hoogwaardige retrieval als listwise reranking uit te voeren door middel van voortgezette training onder een listwise rankingdoelstelling, waardoor sterke effectiviteit wordt bereikt met opmerkelijke efficiëntie. Door de cosinusgelijkenis tussen de query- en document-embeddings te gebruiken als een uniforme rankingfunctie, dient de listwise ranking-prompt, die is opgebouwd uit de originele query en zijn kandidaat-documenten, als een versterkte query die is verrijkt met signalen uit de top-K documenten, vergelijkbaar met pseudo-relevance feedback (PRF) in traditionele retrievalmodellen. Dit ontwerp behoudt de efficiëntie en representatiekwaliteit van het basale embeddingmodel, terwijl de rerankingprestaties aanzienlijk worden verbeterd. Empirisch behaalt E^2Rank state-of-the-art resultaten op de BEIR reranking-benchmark en demonstreert het competitieve prestaties op de reasoning-intensieve BRIGHT-benchmark, met zeer lage rerankinglatentie. We tonen ook aan dat het rankingtrainingsproces de embeddingprestaties op de MTEB-benchmark verbetert. Onze bevindingen geven aan dat een enkel embeddingmodel effectief retrieval en reranking kan verenigen, waarbij zowel computationele efficiëntie als competitieve rankingnauwkeurigheid worden geboden.
English
Text embedding models serve as a fundamental component in real-world search applications. By mapping queries and documents into a shared embedding space, they deliver competitive retrieval performance with high efficiency. However, their ranking fidelity remains limited compared to dedicated rerankers, especially recent LLM-based listwise rerankers, which capture fine-grained query-document and document-document interactions. In this paper, we propose a simple yet effective unified framework E^2Rank, means Efficient Embedding-based Ranking (also means Embedding-to-Rank), which extends a single text embedding model to perform both high-quality retrieval and listwise reranking through continued training under a listwise ranking objective, thereby achieving strong effectiveness with remarkable efficiency. By applying cosine similarity between the query and document embeddings as a unified ranking function, the listwise ranking prompt, which is constructed from the original query and its candidate documents, serves as an enhanced query enriched with signals from the top-K documents, akin to pseudo-relevance feedback (PRF) in traditional retrieval models. This design preserves the efficiency and representational quality of the base embedding model while significantly improving its reranking performance. Empirically, E^2Rank achieves state-of-the-art results on the BEIR reranking benchmark and demonstrates competitive performance on the reasoning-intensive BRIGHT benchmark, with very low reranking latency. We also show that the ranking training process improves embedding performance on the MTEB benchmark. Our findings indicate that a single embedding model can effectively unify retrieval and reranking, offering both computational efficiency and competitive ranking accuracy.
PDF311December 31, 2025