ChatPaper.aiChatPaper

RATIONALYST: 推論力向上のための事前トレーニングプロセス監督

RATIONALYST: Pre-training Process-Supervision for Improving Reasoning

October 1, 2024
著者: Dongwei Jiang, Guoxuan Wang, Yining Lu, Andrew Wang, Jingyu Zhang, Chuyu Liu, Benjamin Van Durme, Daniel Khashabi
cs.AI

要旨

LLMによって生成される推論ステップは、事前トレーニングデータで見られる日常的なコミュニケーションにおける論理的な飛躍を模倣しているため、不完全な場合があります。根底にある合理性はしばしば暗黙のまま(明示されていない)です。この課題に対処するために、私たちはRATIONALYSTを導入します。これは、ラベルのないデータから抽出された合理性注釈の広範なコレクションに基づく推論のプロセス監督のためのモデルです。私たちは、Webスケールの未ラベルデータセット(Pile)と最小限の人間の介入を伴う推論データセットの組み合わせから79,000の合理性を抽出します。この推論のためのWebスケールの事前トレーニングにより、RATIONALYSTは数学的、常識的、科学的、論理的な推論を含む多様な推論タスク全般にわたって一貫して汎化することができます。LLaMa-3-8BからファインチューニングされたRATIONALYSTは、7つの代表的な推論ベンチマークで推論の精度を平均3.9%向上させます。また、GPT-4などの大規模な検証モデルや同様のトレーニングセットでファインチューニングされた同様のサイズのモデルと比較して、優れた性能を示します。
English
The reasoning steps generated by LLMs might be incomplete, as they mimic logical leaps common in everyday communication found in their pre-training data: underlying rationales are frequently left implicit (unstated). To address this challenge, we introduce RATIONALYST, a model for process-supervision of reasoning based on pre-training on a vast collection of rationale annotations extracted from unlabeled data. We extract 79k rationales from web-scale unlabelled dataset (the Pile) and a combination of reasoning datasets with minimal human intervention. This web-scale pre-training for reasoning allows RATIONALYST to consistently generalize across diverse reasoning tasks, including mathematical, commonsense, scientific, and logical reasoning. Fine-tuned from LLaMa-3-8B, RATIONALYST improves the accuracy of reasoning by an average of 3.9% on 7 representative reasoning benchmarks. It also demonstrates superior performance compared to significantly larger verifiers like GPT-4 and similarly sized models fine-tuned on matching training sets.

Summary

AI-Generated Summary

PDF373November 16, 2024