ChatPaper.aiChatPaper

FollowIR: Оценка и обучение моделей информационного поиска для следования инструкциям

FollowIR: Evaluating and Teaching Information Retrieval Models to Follow Instructions

March 22, 2024
Авторы: Orion Weller, Benjamin Chang, Sean MacAvaney, Kyle Lo, Arman Cohan, Benjamin Van Durme, Dawn Lawrie, Luca Soldaini
cs.AI

Аннотация

Современные большие языковые модели (LLM) способны следовать длинным и сложным инструкциям, позволяющим выполнять разнообразные пользовательские задачи. Однако, несмотря на то, что модели информационного поиска (IR) используют LLM в качестве основы своих архитектур, почти все они все еще принимают только запросы в качестве входных данных, без инструкций. Для небольшого числа недавних моделей, которые принимают инструкции, неясно, как они их используют. Мы представляем наш набор данных FollowIR, который содержит строгий бенчмарк оценки инструкций, а также набор данных для помощи моделям IR научиться лучше следовать реальным инструкциям. FollowIR продолжает долгую историю конференций TREC: так как TREC предоставляет человеческим аннотаторам инструкции (также известные как повествования) для определения релевантности документов, модели IR также должны быть способны понимать и определять релевантность на основе этих подробных инструкций. Наш бенчмарк оценки начинается с трех тщательно оцененных коллекций TREC и изменяет инструкции аннотаторов, повторно аннотируя релевантные документы. Через этот процесс мы можем измерить, насколько хорошо модели IR следуют инструкциям, используя новую схему оценки попарно. Наши результаты показывают, что существующие модели поиска не умеют правильно использовать инструкции, используя их для базовых ключевых слов и испытывая трудности в понимании информации в длинной форме. Однако мы показываем, что модели IR могут научиться следовать сложным инструкциям: наша новая модель FollowIR-7B показывает значительные улучшения (более 13%) после донастройки на нашем наборе данных.
English
Modern Large Language Models (LLMs) are capable of following long and complex instructions that enable a diverse amount of user tasks. However, despite Information Retrieval (IR) models using LLMs as the backbone of their architectures, nearly all of them still only take queries as input, with no instructions. For the handful of recent models that do take instructions, it's unclear how they use them. We introduce our dataset FollowIR, which contains a rigorous instruction evaluation benchmark as well as a training set for helping IR models learn to better follow real-world instructions. FollowIR builds off the long history of the TREC conferences: as TREC provides human annotators with instructions (also known as narratives) to determine document relevance, so should IR models be able to understand and decide relevance based on these detailed instructions. Our evaluation benchmark starts with three deeply judged TREC collections and alters the annotator instructions, re-annotating relevant documents. Through this process, we can measure how well IR models follow instructions, through a new pairwise evaluation framework. Our results indicate that existing retrieval models fail to correctly use instructions, using them for basic keywords and struggling to understand long-form information. However, we show that it is possible for IR models to learn to follow complex instructions: our new FollowIR-7B model has significant improvements (over 13%) after fine-tuning on our training set.
PDF111December 15, 2024