RAFT:將語言模型適應特定領域的RAGRAFT: Adapting Language Model to Domain Specific RAG
在大型文本數據庫上對大型語言模型(LLMs)進行預訓練現在是一種標準範式。在將這些LLMs用於許多下游應用時,通常會額外將新知識(例如,時效性新聞或私有領域知識)融入預訓練模型中,可以通過基於RAG的提示或微調來實現。然而,模型獲取此類新知識的最佳方法仍然是一個懸而未決的問題。在本文中,我們提出了檢索增強微調(RAFT),這是一種訓練方法,可以提高模型在“開放書籍”領域設置中回答問題的能力。在RAFT中,給定一個問題和一組檢索到的文檔,我們訓練模型忽略那些對回答問題沒有幫助的文檔,我們稱之為干擾文檔。RAFT通過引用相關文檔中對回答問題有幫助的正確序列來實現這一點。這與RAFT的思維鏈式回應相結合,有助於提高模型的推理能力。在特定領域的RAG中,RAFT在PubMed、HotpotQA和Gorilla數據集上持續改善模型的性能,提供了一種用於改進預訓練LLMs到領域內RAG的後訓練配方。RAFT的代碼和演示在github.com/ShishirPatil/gorilla上開源。