ChatPaper.aiChatPaper

Flacuna: FLANファインチューニングによるVicunaの問題解決能力の解放

Flacuna: Unleashing the Problem Solving Power of Vicuna using FLAN Fine-Tuning

July 5, 2023
著者: Deepanway Ghosal, Yew Ken Chia, Navonil Majumder, Soujanya Poria
cs.AI

要旨

最近、INSTRUCTEVALのリリースにより、エンコーダ-デコーダまたはデコーダのみのアーキテクチャを利用する大規模言語モデル(LLMs)の性能に関する貴重な知見が得られました。興味深いことに、4年前に導入されたT5ベースのLLMs(例えばFLAN-T5)は、一般的な問題解決スキルを必要とするタスクにおいて、最新のデコーダベースのLLMs(例えばLLAMAやVICUNA)を依然として凌駕しています。この性能差は、以下の3つの主要な要因に起因すると考えられます:(1)事前学習データ、(2)バックボーンアーキテクチャ、(3)指示データセット。本技術レポートでは、ChatGPTの会話データに基づいてファインチューニングされたLLAMAベースの大規模言語モデルであるVICUNAを活用し、第3の要因の影響を調査することに焦点を当てています。この目的を達成するため、我々はFLANMINIと呼ばれるカスタマイズされた指示データセットコレクションを使用してVICUNAをファインチューニングしました。このコレクションには、大規模な指示データセットであるFLANのサブセット、およびChatGPT/GPT-4から派生したさまざまなコード関連データセットと会話データセットが含まれています。このデータセットは、問題解決スキルを要求する多数のタスクで構成されています。我々の実験結果は、FLANデータセットでVICUNAをファインチューニングすることにより、我々のモデルFLACUNAの問題解決能力が向上し、INSTRUCTEVALの多数のベンチマークデータセットにおいて大幅な改善が見られることを強く示唆しています。FLACUNAはhttps://huggingface.co/declare-lab/flacuna-13b-v1.0で公開されています。
English
Recently, the release of INSTRUCTEVAL has provided valuable insights into the performance of large language models (LLMs) that utilize encoder-decoder or decoder-only architecture. Interestingly, despite being introduced four years ago, T5-based LLMs, such as FLAN-T5, continue to outperform the latest decoder-based LLMs, such as LLAMA and VICUNA, on tasks that require general problem-solving skills. This performance discrepancy can be attributed to three key factors: (1) Pre-training data, (2) Backbone architecture, and (3) Instruction dataset. In this technical report, our main focus is on investigating the impact of the third factor by leveraging VICUNA, a large language model based on LLAMA, which has undergone fine-tuning on ChatGPT conversations. To achieve this objective, we fine-tuned VICUNA using a customized instruction dataset collection called FLANMINI. This collection includes a subset of the large-scale instruction dataset known as FLAN, as well as various code-related datasets and conversational datasets derived from ChatGPT/GPT-4. This dataset comprises a large number of tasks that demand problem-solving skills. Our experimental findings strongly indicate that the enhanced problem-solving abilities of our model, FLACUNA, are obtained through fine-tuning VICUNA on the FLAN dataset, leading to significant improvements across numerous benchmark datasets in INSTRUCTEVAL. FLACUNA is publicly available at https://huggingface.co/declare-lab/flacuna-13b-v1.0.
PDF221December 15, 2024