FinCoT: 専門家の金融推論に基づくチェーン・オブ・ソートの基盤化
FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning
June 19, 2025
著者: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul
cs.AI
要旨
本論文では、FinCoTを提案する。これは、ドメイン固有の専門家の金融推論から得られた知見を組み込み、大規模言語モデルの推論トレースを導く構造化された連鎖的思考(CoT)プロンプト手法である。我々は、FinNLPにおいて3つの主要なプロンプトスタイルが存在することを明らかにした:(1) 標準プロンプト--ゼロショットプロンプト、(2) 非構造化CoT--タグの使用など明示的な推論構造を持たないCoTプロンプト、(3) 構造化CoTプロンプト--構造化された推論ステップを定義する明示的な指示や例を含むCoTプロンプト。従来、FinNLPは主に標準または非構造化CoTプロンプトを用いたプロンプトエンジニアリングに焦点を当ててきた。しかし、構造化CoTプロンプトはこれまでの研究で十分な注目を集めてこなかった。さらに、構造化CoTプロンプトにおける推論構造の設計は、非ドメイン専門家のヒューリスティックに基づくことが多い。本研究では、FinNLPにおける各プロンプト手法を調査し、3つの主要なプロンプトスタイルとFinCoTを、10の金融ドメインにわたるCFA形式の質問で評価した。その結果、FinCoTはパフォーマンスを63.2%から80.5%に、Qwen-2.5-7B-Instructでは69.7%から74.2%に向上させ、生成されるトークン数を構造化CoTプロンプトと比較して8分の1に削減することが観察された。我々の知見は、ドメインに沿った構造化プロンプトが、パフォーマンスの向上と推論コストの削減だけでなく、より解釈可能で専門家の推論に沿ったトレースを生み出すことを示している。
English
This paper presents FinCoT, a structured chain-of-thought (CoT) prompting
approach that incorporates insights from domain-specific expert financial
reasoning to guide the reasoning traces of large language models. We
investigate that there are three main prompting styles in FinNLP: (1) standard
prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an
explicit reasoning structure, such as the use of tags; and (3) structured CoT
prompting--CoT prompting with explicit instructions or examples that define
structured reasoning steps. Previously, FinNLP has primarily focused on prompt
engineering with either standard or unstructured CoT prompting. However,
structured CoT prompting has received limited attention in prior work.
Furthermore, the design of reasoning structures in structured CoT prompting is
often based on heuristics from non-domain experts. In this study, we
investigate each prompting approach in FinNLP. We evaluate the three main
prompting styles and FinCoT on CFA-style questions spanning ten financial
domains. We observe that FinCoT improves performance from 63.2% to 80.5% and
Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens
eight-fold compared to structured CoT prompting. Our findings show that
domain-aligned structured prompts not only improve performance and reduce
inference costs but also yield more interpretable and expert-aligned reasoning
traces.