ChatPaper.aiChatPaper

LimRank: Weniger ist mehr beim ressourcenintensiven Informations-Reranking

LimRank: Less is More for Reasoning-Intensive Information Reranking

October 27, 2025
papers.authors: Tingyu Song, Yilun Zhao, Siyue Zhang, Chen Zhao, Arman Cohan
cs.AI

papers.abstract

Bisherige Ansätze sind in der Regel auf umfangreiches Fine-Tuning angewiesen, um LLMs für Informations-Reranking-Aufgaben zu adaptieren, was rechenintensiv ist. In dieser Arbeit zeigen wir, dass moderne LLMs effektiv mit nur minimaler, hochwertiger Supervision angepasst werden können. Um dies zu ermöglichen, entwickeln wir LIMRANK-SYNTHESIZER, eine wiederverwendbare und quelloffene Pipeline zur Erzeugung diverser, anspruchsvoller und realistischer Reranking-Beispiele. Mit diesen synthetischen Daten führen wir ein Fine-Tuning unseres Reranking-Modells LIMRANK durch. Wir evaluieren LIMRANK anhand zweier anspruchsvoller Benchmarks: BRIGHT für reasoning-intensives Retrieval und FollowIR für instruktionsbasiertes Retrieval. Unsere Experimente zeigen, dass LIMRANK eine wettbewerbsfähige Leistung erzielt, obwohl es mit weniger als 5 % der typischerweise in früheren Arbeiten verwendeten Daten trainiert wurde. Weitere Ablationsstudien belegen die Wirksamkeit von LIMRANK-SYNTHESIZER sowie die starken Generalisierungsfähigkeiten von LIMRANK über verschiedene Downstream-Aufgaben hinweg, einschließlich wissenschaftlicher Literatursuche und Retrieval-Augmented Generation für wissensintensive Problemlösungen.
English
Existing approaches typically rely on large-scale fine-tuning to adapt LLMs for information reranking tasks, which is computationally expensive. In this work, we demonstrate that modern LLMs can be effectively adapted using only minimal, high-quality supervision. To enable this, we design LIMRANK-SYNTHESIZER, a reusable and open-source pipeline for generating diverse, challenging, and realistic reranking examples. Using this synthetic data, we fine-tune our reranker model, LIMRANK. We evaluate LIMRANK on two challenging benchmarks, i.e., BRIGHT for reasoning-intensive retrieval and FollowIR for instruction-following retrieval. Our experiments demonstrate that LIMRANK achieves competitive performance, while being trained on less than 5% of the data typically used in prior work. Further ablation studies demonstrate the effectiveness of LIMRANK-SYNTHESIZER and the strong generalization capabilities of LIMRANK across downstream tasks, including scientific literature search and retrieval-augmented generation for knowledge-intensive problem solving.
PDF81December 31, 2025