ChatPaper.aiChatPaper

Rank-without-GPT: オープンソース大規模言語モデルに基づくGPT非依存リストワイズリランカーの構築

Rank-without-GPT: Building GPT-Independent Listwise Rerankers on Open-Source Large Language Models

December 5, 2023
著者: Xinyu Zhang, Sebastian Hofstätter, Patrick Lewis, Raphael Tang, Jimmy Lin
cs.AI

要旨

大規模言語モデル(LLM)に基づくリストワイズ・リランカーは、ゼロショットの最先端技術である。しかし、この方向性における現在の研究はすべてGPTモデルに依存しており、科学的再現性における単一障害点となっている。さらに、現在の研究結果がGPTモデルにのみ当てはまり、一般的なLLMには当てはまらない可能性があるという懸念も生じている。本研究では、この前提条件を取り除き、初めてGPTに依存しない効果的なリストワイズ・リランカーを構築した。我々のパッセージ検索実験では、最良のリストワイズ・リランカーがGPT-3.5ベースのリストワイズ・リランカーを13%上回り、GPT-4ベースのリランカーの97%の効果を達成した。また、既存のトレーニングデータセットがポイントワイズ・ランキングのために明示的に構築されたものであり、このようなリストワイズ・リランカーを構築するには不十分であることも示された。代わりに、高品質なリストワイズ・ランキングデータが必要かつ重要であり、人間によるアノテーションが施されたリストワイズ・データリソースの構築に向けたさらなる研究が求められている。
English
Listwise rerankers based on large language models (LLM) are the zero-shot state-of-the-art. However, current works in this direction all depend on the GPT models, making it a single point of failure in scientific reproducibility. Moreover, it raises the concern that the current research findings only hold for GPT models but not LLM in general. In this work, we lift this pre-condition and build for the first time effective listwise rerankers without any form of dependency on GPT. Our passage retrieval experiments show that our best list se reranker surpasses the listwise rerankers based on GPT-3.5 by 13% and achieves 97% effectiveness of the ones built on GPT-4. Our results also show that the existing training datasets, which were expressly constructed for pointwise ranking, are insufficient for building such listwise rerankers. Instead, high-quality listwise ranking data is required and crucial, calling for further work on building human-annotated listwise data resources.
PDF150December 15, 2024