Flacuna: FLANファインチューニングによるVicunaの問題解決能力の解放
Flacuna: Unleashing the Problem Solving Power of Vicuna using FLAN Fine-Tuning
July 5, 2023
著者: Deepanway Ghosal, Yew Ken Chia, Navonil Majumder, Soujanya Poria
cs.AI
要旨
最近、INSTRUCTEVALのリリースにより、エンコーダ-デコーダまたはデコーダのみのアーキテクチャを利用する大規模言語モデル(LLMs)の性能に関する貴重な知見が得られました。興味深いことに、4年前に導入されたT5ベースのLLMs(例えばFLAN-T5)は、一般的な問題解決スキルを必要とするタスクにおいて、最新のデコーダベースのLLMs(例えばLLAMAやVICUNA)を依然として凌駕しています。この性能差は、以下の3つの主要な要因に起因すると考えられます:(1)事前学習データ、(2)バックボーンアーキテクチャ、(3)指示データセット。本技術レポートでは、ChatGPTの会話データに基づいてファインチューニングされたLLAMAベースの大規模言語モデルであるVICUNAを活用し、第3の要因の影響を調査することに焦点を当てています。この目的を達成するため、我々はFLANMINIと呼ばれるカスタマイズされた指示データセットコレクションを使用してVICUNAをファインチューニングしました。このコレクションには、大規模な指示データセットであるFLANのサブセット、およびChatGPT/GPT-4から派生したさまざまなコード関連データセットと会話データセットが含まれています。このデータセットは、問題解決スキルを要求する多数のタスクで構成されています。我々の実験結果は、FLANデータセットでVICUNAをファインチューニングすることにより、我々のモデルFLACUNAの問題解決能力が向上し、INSTRUCTEVALの多数のベンチマークデータセットにおいて大幅な改善が見られることを強く示唆しています。FLACUNAはhttps://huggingface.co/declare-lab/flacuna-13b-v1.0で公開されています。
English
Recently, the release of INSTRUCTEVAL has provided valuable insights into the
performance of large language models (LLMs) that utilize encoder-decoder or
decoder-only architecture. Interestingly, despite being introduced four years
ago, T5-based LLMs, such as FLAN-T5, continue to outperform the latest
decoder-based LLMs, such as LLAMA and VICUNA, on tasks that require general
problem-solving skills. This performance discrepancy can be attributed to three
key factors: (1) Pre-training data, (2) Backbone architecture, and (3)
Instruction dataset. In this technical report, our main focus is on
investigating the impact of the third factor by leveraging VICUNA, a large
language model based on LLAMA, which has undergone fine-tuning on ChatGPT
conversations. To achieve this objective, we fine-tuned VICUNA using a
customized instruction dataset collection called FLANMINI. This collection
includes a subset of the large-scale instruction dataset known as FLAN, as well
as various code-related datasets and conversational datasets derived from
ChatGPT/GPT-4. This dataset comprises a large number of tasks that demand
problem-solving skills. Our experimental findings strongly indicate that the
enhanced problem-solving abilities of our model, FLACUNA, are obtained through
fine-tuning VICUNA on the FLAN dataset, leading to significant improvements
across numerous benchmark datasets in INSTRUCTEVAL. FLACUNA is publicly
available at https://huggingface.co/declare-lab/flacuna-13b-v1.0.