ChatPaper.aiChatPaper

RE-AdaptIR: Verbesserung der Informationsgewinnung durch rückwärts entwickelte Anpassung

RE-AdaptIR: Improving Information Retrieval through Reverse Engineered Adaptation

June 20, 2024
Autoren: William Fleshman, Benjamin Van Durme
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs), die für die Textsuche feinabgestimmt sind, haben Spitzenleistung über mehrere Informationsabruf (IR)-Benchmarks gezeigt. Allerdings erfordert die überwachte Schulung zur Verbesserung dieser Modelle zahlreiche gelabelte Beispiele, die in der Regel nicht verfügbar oder teuer zu beschaffen sind. In dieser Arbeit untersuchen wir die Wirksamkeit der Erweiterung der rückwärts entwickelten Anpassung im Kontext des Informationsabrufs (RE-AdaptIR). Wir verwenden RE-AdaptIR, um LLM-basierte IR-Modelle mithilfe nur von ungelabelten Daten zu verbessern. Wir zeigen eine verbesserte Leistung sowohl in Trainingsdomänen als auch in Null-Schuss-Domänen, in denen die Modelle keine Anfragen gesehen haben. Wir analysieren Leistungsänderungen in verschiedenen Feinabstimmungsszenarien und bieten Erkenntnisse von unmittelbarem Nutzen für Praktiker.
English
Large language models (LLMs) fine-tuned for text-retrieval have demonstrated state-of-the-art results across several information retrieval (IR) benchmarks. However, supervised training for improving these models requires numerous labeled examples, which are generally unavailable or expensive to acquire. In this work, we explore the effectiveness of extending reverse engineered adaptation to the context of information retrieval (RE-AdaptIR). We use RE-AdaptIR to improve LLM-based IR models using only unlabeled data. We demonstrate improved performance both in training domains as well as zero-shot in domains where the models have seen no queries. We analyze performance changes in various fine-tuning scenarios and offer findings of immediate use to practitioners.

Summary

AI-Generated Summary

PDF41November 29, 2024