E^2Rank: Seu Embedding de Texto Também Pode Ser um Reranker Listwise Eficaz e Eficiente
E^2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker
October 26, 2025
Autores: Qi Liu, Yanzhao Zhang, Mingxin Li, Dingkun Long, Pengjun Xie, Jiaxin Mao
cs.AI
Resumo
Os modelos de incorporação de texto (embedding) servem como um componente fundamental em aplicações de busca do mundo real. Ao mapear consultas e documentos em um espaço de incorporação compartilhado, eles oferecem desempenho de recuperação competitivo com alta eficiência. No entanto, sua fidelidade de classificação permanece limitada em comparação com rerankers dedicados, especialmente os rerankers listwise baseados em LLM recentes, que capturam interações refinadas entre consulta-documento e documento-documento. Neste artigo, propomos uma estrutura unificada simples, mas eficaz, chamada E²Rank (que significa Efficient Embedding-based Ranking e também Embedding-to-Rank), que estende um único modelo de incorporação de texto para realizar tanto recuperação de alta qualidade quanto reranking listwise por meio de treinamento contínuo sob um objetivo de classificação listwise, alcançando assim forte eficácia com notável eficiência. Ao aplicar a similaridade de cosseno entre as incorporações da consulta e do documento como uma função de classificação unificada, o prompt de classificação listwise, construído a partir da consulta original e seus documentos candidatos, serve como uma consulta aprimorada enriquecida com sinais dos documentos top-K, semelhante ao feedback de pseudo-relevância (PRF) em modelos de recuperação tradicionais. Este projeto preserva a eficiência e a qualidade representacional do modelo de incorporação base, enquanto melhora significativamente seu desempenho de reranking. Empiricamente, o E²Rank alcança resultados state-of-the-art no benchmark de reranking BEIR e demonstra desempenho competitivo no benchmark de raciocínio intensivo BRIGHT, com latência de reranking muito baixa. Também mostramos que o processo de treinamento de classificação melhora o desempenho de incorporação no benchmark MTEB. Nossos achados indicam que um único modelo de incorporação pode unificar efetivamente recuperação e reranking, oferecendo tanto eficiência computacional quanto precisão de classificação competitiva.
English
Text embedding models serve as a fundamental component in real-world search
applications. By mapping queries and documents into a shared embedding space,
they deliver competitive retrieval performance with high efficiency. However,
their ranking fidelity remains limited compared to dedicated rerankers,
especially recent LLM-based listwise rerankers, which capture fine-grained
query-document and document-document interactions. In this paper, we propose a
simple yet effective unified framework E^2Rank, means Efficient
Embedding-based Ranking (also means Embedding-to-Rank), which extends a single
text embedding model to perform both high-quality retrieval and listwise
reranking through continued training under a listwise ranking objective,
thereby achieving strong effectiveness with remarkable efficiency. By applying
cosine similarity between the query and document embeddings as a unified
ranking function, the listwise ranking prompt, which is constructed from the
original query and its candidate documents, serves as an enhanced query
enriched with signals from the top-K documents, akin to pseudo-relevance
feedback (PRF) in traditional retrieval models. This design preserves the
efficiency and representational quality of the base embedding model while
significantly improving its reranking performance. Empirically,
E^2Rank achieves state-of-the-art results on the BEIR
reranking benchmark and demonstrates competitive performance on the
reasoning-intensive BRIGHT benchmark, with very low reranking latency. We also
show that the ranking training process improves embedding performance on the
MTEB benchmark. Our findings indicate that a single embedding model can
effectively unify retrieval and reranking, offering both computational
efficiency and competitive ranking accuracy.