ChatPaper.aiChatPaper

インタラクティブなデモンストレーションを通じて言語モデルに自己改善を教える

Teaching Language Models to Self-Improve through Interactive Demonstrations

October 20, 2023
著者: Xiao Yu, Baolin Peng, Michel Galley, Jianfeng Gao, Zhou Yu
cs.AI

要旨

大規模言語モデル(LLM)が自らの出力を分析し修正するよう促すことで可能となる自己改善能力は、近年の研究で大きな注目を集めています。しかし、この能力は小規模モデルには存在せず、習得も困難であることが示されており、それにより最先端のLLMと、よりコスト効率が高く高速なモデルとの性能差が拡大しています。この差を縮めるため、我々はTriPosTというトレーニングアルゴリズムを導入し、小規模モデルにこの自己改善能力を付与します。我々のアプローチにより、LLaMA-7bの数学および推論タスクにおける性能が最大7.13%向上することを示します。従来の研究とは異なり、我々は小規模モデルをLLMと対話させ、自らの生成物に対するフィードバックと改善点を収集することでこれを実現します。その後、この経験をリプレイして小規模モデルをトレーニングします。4つの数学および推論データセットでの実験により、自らの誤りから学び修正するという対話的な経験が、小規模モデルの性能向上に不可欠であることが明らかになりました。
English
The self-improving ability of large language models (LLMs), enabled by prompting them to analyze and revise their own outputs, has garnered significant interest in recent research. However, this ability has been shown to be absent and difficult to learn for smaller models, thus widening the performance gap between state-of-the-art LLMs and more cost-effective and faster ones. To reduce this gap, we introduce TriPosT, a training algorithm that endows smaller models with such self-improvement ability, and show that our approach can improve a LLaMA-7b's performance on math and reasoning tasks by up to 7.13%. In contrast to prior work, we achieve this by using the smaller model to interact with LLMs to collect feedback and improvements on its own generations. We then replay this experience to train the small model. Our experiments on four math and reasoning datasets show that the interactive experience of learning from and correcting its own mistakes is crucial for small models to improve their performance.
PDF121December 15, 2024