ChatPaper.aiChatPaper

E^2Rank: Ваше текстовое векторное представление также может быть эффективным и производительным ранжировщиком по списку

E^2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker

October 26, 2025
Авторы: Qi Liu, Yanzhao Zhang, Mingxin Li, Dingkun Long, Pengjun Xie, Jiaxin Mao
cs.AI

Аннотация

Модели текстовых эмбеддингов служат фундаментальным компонентом в практических поисковых приложениях. Сопоставляя запросы и документы в общем пространстве векторных представлений, они обеспечивают конкурентоспособную производительность поиска при высокой эффективности. Однако их точность ранжирования остается ограниченной по сравнению со специализированными реранкерами, особенно с недавними listwise-реранкерами на основе LLM, которые учитывают тонкие взаимодействия запрос-документ и документ-документ. В данной статье мы предлагаем простую, но эффективную унифицированную архитектуру E²Rank (Efficient Embedding-based Ranking, также означает Embedding-to-Rank), которая расширяет одиночную модель текстовых эмбеддингов для выполнения как высококачественного поиска, так и listwise-реранжирования через продолжение обучения с listwise-функцией ранжирования, достигая thus высокой эффективности при замечательной производительности. Используя косинусное сходство между векторными представлениями запроса и документа в качестве универсальной функции ранжирования, listwise-промпт, сформированный из исходного запроса и кандидатных документов, служит усиленным запросом, обогащенным сигналами из топ-K документов, аналогично псевдорелевантностному feedback (PRF) в традиционных поисковых моделях. Данная конструкция сохраняет эффективность и репрезентативное качество базовой модели эмбеддингов, одновременно значительно улучшая её производительность при реранжировании. Экспериментально E²Rank достигает state-of-the-art результатов на бенчмарке реранжирования BEIR и демонстрирует конкурентоспособную производительность на ориентированном на логику бенчмарке BRIGHT при очень низкой задержке реранжирования. Мы также показываем, что процесс обучения ранжированию улучшает качество эмбеддингов на бенчмарке MTEB. Наши результаты свидетельствуют, что одиночная модель эмбеддингов может эффективно объединять поиск и реранжирование, предлагая как вычислительную эффективность, так и конкурентоспособную точность ранжирования.
English
Text embedding models serve as a fundamental component in real-world search applications. By mapping queries and documents into a shared embedding space, they deliver competitive retrieval performance with high efficiency. However, their ranking fidelity remains limited compared to dedicated rerankers, especially recent LLM-based listwise rerankers, which capture fine-grained query-document and document-document interactions. In this paper, we propose a simple yet effective unified framework E^2Rank, means Efficient Embedding-based Ranking (also means Embedding-to-Rank), which extends a single text embedding model to perform both high-quality retrieval and listwise reranking through continued training under a listwise ranking objective, thereby achieving strong effectiveness with remarkable efficiency. By applying cosine similarity between the query and document embeddings as a unified ranking function, the listwise ranking prompt, which is constructed from the original query and its candidate documents, serves as an enhanced query enriched with signals from the top-K documents, akin to pseudo-relevance feedback (PRF) in traditional retrieval models. This design preserves the efficiency and representational quality of the base embedding model while significantly improving its reranking performance. Empirically, E^2Rank achieves state-of-the-art results on the BEIR reranking benchmark and demonstrates competitive performance on the reasoning-intensive BRIGHT benchmark, with very low reranking latency. We also show that the ranking training process improves embedding performance on the MTEB benchmark. Our findings indicate that a single embedding model can effectively unify retrieval and reranking, offering both computational efficiency and competitive ranking accuracy.
PDF311December 31, 2025