ChatPaper.aiChatPaper

大規模言語モデルプログラム

Large Language Model Programs

May 9, 2023
著者: Imanol Schlag, Sainbayar Sukhbaatar, Asli Celikyilmaz, Wen-tau Yih, Jason Weston, Jürgen Schmidhuber, Xian Li
cs.AI

要旨

近年、大規模な事前学習済み言語モデル(LLM)は、少数の例から指示に従い新規タスクを遂行する能力を示してきた。このような文脈内の例を通じてLLMをパラメータ化する可能性は、ファインチューニングよりもはるかに低コストでその能力を拡大する。我々はこの論理をさらに拡張し、LLMをアルゴリズムやプログラムに組み込むことでその能力をさらに拡張する手法を提案する。このアプローチの利点を示すため、証拠に基づく質問応答の具体例を提示する。アルゴリズム的なアプローチにより、ファインチューニングなしでチェーン・オブ・ソートのベースラインを6.4%改善した。さらに、この視点から最近の研究を紹介し、標準的なアプローチとの比較における利点と欠点について議論する。
English
In recent years, large pre-trained language models (LLMs) have demonstrated the ability to follow instructions and perform novel tasks from a few examples. The possibility to parameterise an LLM through such in-context examples widens their capability at a much lower cost than finetuning. We extend this line of reasoning and present a method which further expands the capabilities of an LLM by embedding it within an algorithm or program. To demonstrate the benefits of this approach, we present an illustrative example of evidence-supported question-answering. We obtain a 6.4\% improvement over the chain of thought baseline through a more algorithmic approach without any finetuning. Furthermore, we highlight recent work from this perspective and discuss the advantages and disadvantages in comparison to the standard approaches.
PDF20December 15, 2024