E^2Rank: Il tuo Embedding Testuale può Anche Essere un Reranker Listwise Efficace ed Efficiente
E^2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker
October 26, 2025
Autori: Qi Liu, Yanzhao Zhang, Mingxin Li, Dingkun Long, Pengjun Xie, Jiaxin Mao
cs.AI
Abstract
I modelli di embedding testuale costituiscono un componente fondamentale nelle applicazioni di ricerca reali. Mappando query e documenti in uno spazio di embedding condiviso, forniscono prestazioni di retrieval competitive con alta efficienza. Tuttavia, la loro fedeltà di ranking rimane limitata rispetto ai reranker dedicati, in particolare ai recenti reranker listwise basati su LLM, che catturano interazioni granulari query-documento e documento-documento. In questo articolo, proponiamo un framework unificato semplice ma efficace chiamato E²Rank (che significa Efficient Embedding-based Ranking, ma anche Embedding-to-Rank), che estende un singolo modello di embedding testuale per eseguire sia retrieval di alta qualità che reranking listwise attraverso un addestramento continuato sotto un obiettivo di ranking listwise, raggiungendo così una forte efficacia con notevole efficienza. Utilizzando la similarità del coseno tra gli embedding della query e del documento come funzione di ranking unificata, il prompt di ranking listwise, costruito dalla query originale e dai suoi documenti candidati, funge da query arricchita con segnali provenienti dai top-K documenti, simile al feedback di pseudo-rilevanza (PRF) nei modelli di retrieval tradizionali. Questo design preserva l'efficienza e la qualità rappresentativa del modello di embedding base, migliorando significativamente le sue prestazioni di reranking. Empiricamente, E²Rank raggiunge risultati all'avanguardia sul benchmark di reranking BEIR e dimostra prestazioni competitive sul benchmark ad intenso ragionamento BRIGHT, con una latenza di reranking molto bassa. Mostriamo inoltre che il processo di addestramento al ranking migliora le prestazioni dell'embedding sul benchmark MTEB. I nostri risultati indicano che un singolo modello di embedding può unificare efficacemente retrieval e reranking, offrendo sia efficienza computazionale che accuratezza di ranking competitiva.
English
Text embedding models serve as a fundamental component in real-world search
applications. By mapping queries and documents into a shared embedding space,
they deliver competitive retrieval performance with high efficiency. However,
their ranking fidelity remains limited compared to dedicated rerankers,
especially recent LLM-based listwise rerankers, which capture fine-grained
query-document and document-document interactions. In this paper, we propose a
simple yet effective unified framework E^2Rank, means Efficient
Embedding-based Ranking (also means Embedding-to-Rank), which extends a single
text embedding model to perform both high-quality retrieval and listwise
reranking through continued training under a listwise ranking objective,
thereby achieving strong effectiveness with remarkable efficiency. By applying
cosine similarity between the query and document embeddings as a unified
ranking function, the listwise ranking prompt, which is constructed from the
original query and its candidate documents, serves as an enhanced query
enriched with signals from the top-K documents, akin to pseudo-relevance
feedback (PRF) in traditional retrieval models. This design preserves the
efficiency and representational quality of the base embedding model while
significantly improving its reranking performance. Empirically,
E^2Rank achieves state-of-the-art results on the BEIR
reranking benchmark and demonstrates competitive performance on the
reasoning-intensive BRIGHT benchmark, with very low reranking latency. We also
show that the ranking training process improves embedding performance on the
MTEB benchmark. Our findings indicate that a single embedding model can
effectively unify retrieval and reranking, offering both computational
efficiency and competitive ranking accuracy.