SaulLM-54B和SaulLM-141B:擴展法律領域的領域適應SaulLM-54B & SaulLM-141B: Scaling Up Domain Adaptation for the Legal
Domain
本文介紹了 SaulLM-54B 和 SaulLM-141B 兩個針對法律領域量身定制的大型語言模型(LLMs)。這些模型分別具有 540 億和 1410 億參數的架構,基於 Mixtral 架構。SaulLM-54B 和 SaulLM-141B 的開發受到大規模領域適應的指導,分為三個策略:(1)利用持續預訓練,包括超過 5400 億法律標記的基本語料庫,(2)實施專門的法律指令遵循協議,以及(3)將模型輸出與法律解釋中的人類偏好對齊。在第二和第三步中整合合成生成的數據增強了模型在解釋和處理法律文本方面的能力,有效地達到了最先進的性能,並在 LegalBench-Instruct 上表現優於先前的開源模型。本研究探討了在這一規模上涉及的特定領域適應中的權衡,提供了可能有助於未來使用強解碼器模型進行領域適應的研究見解。在 SaulLM-7B 的基礎上,本研究改進了方法,以產生一個更適合法律任務的LLM。我們在 SaulLM-54B 和 SaulLM-141B 的基礍上釋出了基本、指令和對齊版本,並採用 MIT 許可證,以促進重複使用和協作研究。