ChatPaper.aiChatPaper

E^2Rank:あなたのテキスト埋め込みは、効果的かつ効率的なリストワイズ並べ替え器にもなり得る

E^2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker

October 26, 2025
著者: Qi Liu, Yanzhao Zhang, Mingxin Li, Dingkun Long, Pengjun Xie, Jiaxin Mao
cs.AI

要旨

テキスト埋め込みモデルは、実世界の検索アプリケーションにおける基盤的コンポーネントとして機能する。クエリと文書を共有の埋め込み空間に写像することで、高い効率性を維持しつつ競争力のある検索性能を実現する。しかしながら、そのランキング精度は、専用のリランカー、特に細かなクエリ-文書間および文書-文書間の相互作用を捉える最近のLLMベースのリストワイズリランカーと比較すると、依然として限界がある。本論文では、シンプルかつ効果的な統一フレームワークE^2Rankを提案する。これは、Efficient Embedding-based Ranking(またEmbedding-to-Rankの意も持つ)を意味し、単一のテキスト埋め込みモデルを拡張して、リストワイズランキング目的関数による継続訓練を通じて、高品質な検索とリストワイズリランキングの両方を実行させる。これにより、顕著な効率性を保ちつつ強力な有効性を達成する。クエリと文書の埋め込み間のコサイン類似度を統一的なランキング関数として適用することで、元のクエリとその候補文書から構築されるリストワイズランキングプロンプトは、従来の検索モデルにおける擬似的関連性フィードバック(PRF)と同様に、トップK文書からの信号で強化された拡張クエリとして機能する。この設計は、ベースとなる埋め込みモデルの効率性と表現品質を維持しながら、そのリランキング性能を大幅に改善する。実証的に、E^2RankはBEIRリランキングベンチマークで state-of-the-art の結果を達成し、推論集約型のBRIGHTベンチマークにおいても非常に低いリランキング遅延で競争力のある性能を示す。さらに、このランキング訓練プロセスがMTEBベンチマークにおける埋め込み性能も向上させることを示す。我々の発見は、単一の埋め込みモデルが検索とリランキングを効果的に統一し、計算効率と競争力のあるランキング精度の両方を提供できることを示唆している。
English
Text embedding models serve as a fundamental component in real-world search applications. By mapping queries and documents into a shared embedding space, they deliver competitive retrieval performance with high efficiency. However, their ranking fidelity remains limited compared to dedicated rerankers, especially recent LLM-based listwise rerankers, which capture fine-grained query-document and document-document interactions. In this paper, we propose a simple yet effective unified framework E^2Rank, means Efficient Embedding-based Ranking (also means Embedding-to-Rank), which extends a single text embedding model to perform both high-quality retrieval and listwise reranking through continued training under a listwise ranking objective, thereby achieving strong effectiveness with remarkable efficiency. By applying cosine similarity between the query and document embeddings as a unified ranking function, the listwise ranking prompt, which is constructed from the original query and its candidate documents, serves as an enhanced query enriched with signals from the top-K documents, akin to pseudo-relevance feedback (PRF) in traditional retrieval models. This design preserves the efficiency and representational quality of the base embedding model while significantly improving its reranking performance. Empirically, E^2Rank achieves state-of-the-art results on the BEIR reranking benchmark and demonstrates competitive performance on the reasoning-intensive BRIGHT benchmark, with very low reranking latency. We also show that the ranking training process improves embedding performance on the MTEB benchmark. Our findings indicate that a single embedding model can effectively unify retrieval and reranking, offering both computational efficiency and competitive ranking accuracy.
PDF311December 31, 2025