ChatPaper.aiChatPaper

FinCoT : Ancrage de la Chaîne de Raisonnement dans le Raisonnement Financier Expert

FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning

June 19, 2025
Auteurs: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul
cs.AI

Résumé

Cet article présente FinCoT, une approche structurée de prompting en chaîne de pensée (CoT) qui intègre des insights issus du raisonnement expert spécifique au domaine financier pour guider les traces de raisonnement des grands modèles de langage. Nous constatons qu'il existe trois principaux styles de prompting dans FinNLP : (1) le prompting standard—zero-shot prompting ; (2) le CoT non structuré—CoT prompting sans structure de raisonnement explicite, comme l'utilisation de balises ; et (3) le CoT structuré—CoT prompting avec des instructions ou des exemples explicites définissant des étapes de raisonnement structurées. Jusqu'à présent, FinNLP s'est principalement concentré sur l'ingénierie de prompts avec soit le prompting standard, soit le CoT non structuré. Cependant, le CoT structuré a reçu une attention limitée dans les travaux antérieurs. De plus, la conception des structures de raisonnement dans le CoT structuré est souvent basée sur des heuristiques provenant de non-experts du domaine. Dans cette étude, nous examinons chaque approche de prompting dans FinNLP. Nous évaluons les trois principaux styles de prompting ainsi que FinCoT sur des questions de type CFA couvrant dix domaines financiers. Nous observons que FinCoT améliore les performances de 63,2 % à 80,5 % et celles de Qwen-2.5-7B-Instruct de 69,7 % à 74,2 %, tout en réduisant les tokens générés par un facteur de huit par rapport au CoT structuré. Nos résultats montrent que les prompts structurés alignés sur le domaine améliorent non seulement les performances et réduisent les coûts d'inférence, mais produisent également des traces de raisonnement plus interprétables et alignées sur l'expertise.
English
This paper presents FinCoT, a structured chain-of-thought (CoT) prompting approach that incorporates insights from domain-specific expert financial reasoning to guide the reasoning traces of large language models. We investigate that there are three main prompting styles in FinNLP: (1) standard prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an explicit reasoning structure, such as the use of tags; and (3) structured CoT prompting--CoT prompting with explicit instructions or examples that define structured reasoning steps. Previously, FinNLP has primarily focused on prompt engineering with either standard or unstructured CoT prompting. However, structured CoT prompting has received limited attention in prior work. Furthermore, the design of reasoning structures in structured CoT prompting is often based on heuristics from non-domain experts. In this study, we investigate each prompting approach in FinNLP. We evaluate the three main prompting styles and FinCoT on CFA-style questions spanning ten financial domains. We observe that FinCoT improves performance from 63.2% to 80.5% and Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens eight-fold compared to structured CoT prompting. Our findings show that domain-aligned structured prompts not only improve performance and reduce inference costs but also yield more interpretable and expert-aligned reasoning traces.
PDF72June 24, 2025