ChatPaper.aiChatPaper

FinCoT: Verankerung der Gedankenkette in fachkundiger finanzieller Argumentation

FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning

June 19, 2025
Autoren: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul
cs.AI

Zusammenfassung

Dieses Papier stellt FinCoT vor, einen strukturierten Chain-of-Thought (CoT)-Prompting-Ansatz, der Erkenntnisse aus domänenspezifischem, expertengestütztem Finanzdenken integriert, um die Denkpfade großer Sprachmodelle zu steuern. Wir untersuchen, dass es in FinNLP drei Haupt-Prompting-Stile gibt: (1) Standard-Prompting – Zero-Shot-Prompting; (2) unstrukturiertes CoT – CoT-Prompting ohne explizite Denkstruktur, wie z. B. die Verwendung von Tags; und (3) strukturiertes CoT-Prompting – CoT-Prompting mit expliziten Anweisungen oder Beispielen, die strukturierte Denkschritte definieren. Bisher hat sich FinNLP hauptsächlich auf Prompt-Engineering mit entweder Standard- oder unstrukturiertem CoT-Prompting konzentriert. Strukturiertes CoT-Prompting wurde in früheren Arbeiten jedoch nur begrenzt berücksichtigt. Darüber hinaus basiert die Gestaltung von Denkstrukturen im strukturierten CoT-Prompting oft auf Heuristiken von Nicht-Domänenexperten. In dieser Studie untersuchen wir jeden Prompting-Ansatz in FinNLP. Wir evaluieren die drei Haupt-Prompting-Stile sowie FinCoT anhand von CFA-ähnlichen Fragen aus zehn Finanzdomänen. Wir beobachten, dass FinCoT die Leistung von 63,2 % auf 80,5 % und Qwen-2.5-7B-Instruct von 69,7 % auf 74,2 % steigert, während die generierten Tokens im Vergleich zum strukturierten CoT-Prompting um das Achtfache reduziert werden. Unsere Ergebnisse zeigen, dass domänenorientierte strukturierte Prompts nicht nur die Leistung verbessern und Inferenzkosten senken, sondern auch interpretierbarere und expertengerechtere Denkpfade liefern.
English
This paper presents FinCoT, a structured chain-of-thought (CoT) prompting approach that incorporates insights from domain-specific expert financial reasoning to guide the reasoning traces of large language models. We investigate that there are three main prompting styles in FinNLP: (1) standard prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an explicit reasoning structure, such as the use of tags; and (3) structured CoT prompting--CoT prompting with explicit instructions or examples that define structured reasoning steps. Previously, FinNLP has primarily focused on prompt engineering with either standard or unstructured CoT prompting. However, structured CoT prompting has received limited attention in prior work. Furthermore, the design of reasoning structures in structured CoT prompting is often based on heuristics from non-domain experts. In this study, we investigate each prompting approach in FinNLP. We evaluate the three main prompting styles and FinCoT on CFA-style questions spanning ten financial domains. We observe that FinCoT improves performance from 63.2% to 80.5% and Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens eight-fold compared to structured CoT prompting. Our findings show that domain-aligned structured prompts not only improve performance and reduce inference costs but also yield more interpretable and expert-aligned reasoning traces.
PDF72June 24, 2025