RAFT: Адаптация языковой модели к доменно-специфическому RAGRAFT: Adapting Language Model to Domain Specific RAG
Предварительное обучение больших языковых моделей (LLM) на больших корпусах текстовых данных теперь является стандартной парадигмой. При использовании этих LLM для многих последующих приложений обычно дополнительно внедряют новые знания (например, актуальные новости или знания в частной области) в предварительно обученную модель либо через RAG-основанный подход, либо через донастройку. Однако оптимальная методология для модели, чтобы усвоить такие новые знания, остается открытым вопросом. В этой статье мы представляем Retrieval Augmented FineTuning (RAFT), метод обучения, который улучшает способность модели отвечать на вопросы в "открытой книге" внутри области применения. В RAFT, имея вопрос и набор извлеченных документов, мы обучаем модель игнорировать те документы, которые не помогают ответить на вопрос, которые мы называем дистракторными документами. RAFT достигает этого, цитируя дословно правильную последовательность из соответствующего документа, которая поможет ответить на вопрос. Это в сочетании с ответом в стиле цепочки мыслей RAFT помогает улучшить способность модели к рассуждению. В областно-специфичном RAG RAFT последовательно улучшает производительность модели на наборах данных PubMed, HotpotQA и Gorilla, представляя методику пост-обучения для улучшения предварительно обученных LLM в области RAG. Код и демонстрация RAFT доступны в открытом доступе на github.com/ShishirPatil/gorilla.