ChatPaper.aiChatPaper

LimRank: меньше значит больше для переранжирования информации с интенсивными рассуждениями

LimRank: Less is More for Reasoning-Intensive Information Reranking

October 27, 2025
Авторы: Tingyu Song, Yilun Zhao, Siyue Zhang, Chen Zhao, Arman Cohan
cs.AI

Аннотация

Существующие подходы обычно требуют масштабного тонкого настройки для адаптации больших языковых моделей (LLM) к задачам реранжирования информации, что вычислительно затратно. В данной работе мы демонстрируем, что современные LLM можно эффективно адаптировать, используя лишь минимальный объем высококачественных размеченных данных. Для этого мы разработали LIMRANK-SYNTHESIZER — многократно используемый и открытый конвейер для генерации разнообразных, сложных и реалистичных примеров для реранжирования. Используя эти синтетические данные, мы выполняем тонкую настройку нашей модели для реранжирования LIMRANK. Мы оцениваем LIMRANK на двух сложных наборах данных: BRIGHT для поиска, требующего интенсивных рассуждений, и FollowIR для поиска с выполнением инструкций. Наши эксперименты показывают, что LIMRANK демонстрирует конкурентоспособные результаты, будучи обученной менее чем на 5% данных, обычно используемых в предыдущих работах. Дополнительные абляционные исследования подтверждают эффективность LIMRANK-SYNTHESIZER и сильные обобщающие способности LIMRANK при решении различных прикладных задач, включая поиск научной литературы и генерацию с усилением retrieval для решения задач, требующих обширных знаний.
English
Existing approaches typically rely on large-scale fine-tuning to adapt LLMs for information reranking tasks, which is computationally expensive. In this work, we demonstrate that modern LLMs can be effectively adapted using only minimal, high-quality supervision. To enable this, we design LIMRANK-SYNTHESIZER, a reusable and open-source pipeline for generating diverse, challenging, and realistic reranking examples. Using this synthetic data, we fine-tune our reranker model, LIMRANK. We evaluate LIMRANK on two challenging benchmarks, i.e., BRIGHT for reasoning-intensive retrieval and FollowIR for instruction-following retrieval. Our experiments demonstrate that LIMRANK achieves competitive performance, while being trained on less than 5% of the data typically used in prior work. Further ablation studies demonstrate the effectiveness of LIMRANK-SYNTHESIZER and the strong generalization capabilities of LIMRANK across downstream tasks, including scientific literature search and retrieval-augmented generation for knowledge-intensive problem solving.
PDF81December 31, 2025