ChatPaper.aiChatPaper

E^2Rank : Votre plongement de texte peut également être un rerankeur listwise efficace et efficient

E^2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker

October 26, 2025
papers.authors: Qi Liu, Yanzhao Zhang, Mingxin Li, Dingkun Long, Pengjun Xie, Jiaxin Mao
cs.AI

papers.abstract

Les modèles d'embedding de texte constituent un composant fondamental dans les applications de recherche réelles. En projetant les requêtes et les documents dans un espace d'embedding partagé, ils offrent des performances de recherche compétitives avec une grande efficacité. Cependant, leur fidélité de classement reste limitée comparée aux rerankeurs dédiés, particulièrement les rerankeurs récents basés sur des LLM utilisant une approche par liste, qui capturent les interactions fines requête-document et document-document. Dans cet article, nous proposons un cadre unifié simple mais efficace, E²Rank (signifiant Efficient Embedding-based Ranking, ou aussi Embedding-to-Rank), qui étend un modèle d'embedding de texte unique pour effectuer à la fois une recherche de haute qualité et un reranking par liste via un entraînement continu sous un objectif de classement par liste, atteignant ainsi une forte efficacité avec une remarquable rapidité. En utilisant la similarité cosinus entre les embeddings de la requête et du document comme fonction de classement unifiée, l'invite de classement par liste, construite à partir de la requête originale et de ses documents candidats, sert de requête enrichie avec des signaux provenant des K premiers documents, semblable au feedback de pertinence pseudo (PRF) dans les modèles de recherche traditionnels. Cette conception préserve l'efficacité et la qualité représentationnelle du modèle d'embedding de base tout en améliorant significativement ses performances de reranking. Empiriquement, E²Rank obtient des résultats state-of-the-art sur le benchmark de reranking BEIR et démontre des performances compétitives sur le benchmark BRIGHT nécessitant un raisonnement poussé, avec une latence de reranking très faible. Nous montrons également que le processus d'entraînement au classement améliore les performances d'embedding sur le benchmark MTEB. Nos résultats indiquent qu'un modèle d'embedding unique peut unifier efficacement la recherche et le reranking, offrant à la fois une efficacité computationnelle et une précision de classement compétitive.
English
Text embedding models serve as a fundamental component in real-world search applications. By mapping queries and documents into a shared embedding space, they deliver competitive retrieval performance with high efficiency. However, their ranking fidelity remains limited compared to dedicated rerankers, especially recent LLM-based listwise rerankers, which capture fine-grained query-document and document-document interactions. In this paper, we propose a simple yet effective unified framework E^2Rank, means Efficient Embedding-based Ranking (also means Embedding-to-Rank), which extends a single text embedding model to perform both high-quality retrieval and listwise reranking through continued training under a listwise ranking objective, thereby achieving strong effectiveness with remarkable efficiency. By applying cosine similarity between the query and document embeddings as a unified ranking function, the listwise ranking prompt, which is constructed from the original query and its candidate documents, serves as an enhanced query enriched with signals from the top-K documents, akin to pseudo-relevance feedback (PRF) in traditional retrieval models. This design preserves the efficiency and representational quality of the base embedding model while significantly improving its reranking performance. Empirically, E^2Rank achieves state-of-the-art results on the BEIR reranking benchmark and demonstrates competitive performance on the reasoning-intensive BRIGHT benchmark, with very low reranking latency. We also show that the ranking training process improves embedding performance on the MTEB benchmark. Our findings indicate that a single embedding model can effectively unify retrieval and reranking, offering both computational efficiency and competitive ranking accuracy.
PDF311December 31, 2025