LlamaFactory: 100以上の言語モデルを統一的に効率的にファインチューニングLlamaFactory: Unified Efficient Fine-Tuning of 100+ Language Models
大規模言語モデル(LLM)を下流タスクに適応させるためには、効率的なファインチューニングが不可欠です。しかし、異なるモデルに対してこれらの手法を実装するには多大な労力が必要です。本論文では、最先端の効率的なトレーニング手法を統合した統一フレームワーク「LlamaFactory」を提案します。このフレームワークは、組み込みのWeb UI「LlamaBoard」を通じて、100以上のLLMのファインチューニングをコーディングなしで柔軟にカスタマイズすることを可能にします。我々は、言語モデリングとテキスト生成タスクにおいて、本フレームワークの効率性と有効性を実証的に検証しました。本フレームワークはhttps://github.com/hiyouga/LLaMA-Factoryで公開されており、すでに13,000以上のスターと1,600以上のフォークを獲得しています。