ChatPaper.aiChatPaper

FinCoT: Verankering van Ketens van Redenering in Expert Financiële Redenering

FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning

June 19, 2025
Auteurs: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul
cs.AI

Samenvatting

Dit artikel presenteert FinCoT, een gestructureerde chain-of-thought (CoT) prompting-benadering die inzichten uit domeinspecifiek expert financieel redeneren integreert om de redeneersporen van grote taalmodellen te begeleiden. Wij onderzoeken dat er drie hoofd-promptingstijlen zijn in FinNLP: (1) standaard prompting--zero-shot prompting; (2) ongestructureerde CoT--CoT prompting zonder een expliciete redeneerstructuur, zoals het gebruik van tags; en (3) gestructureerde CoT prompting--CoT prompting met expliciete instructies of voorbeelden die gestructureerde redeneerstappen definiëren. Voorheen heeft FinNLP zich voornamelijk gericht op prompt engineering met ofwel standaard of ongestructureerde CoT prompting. Echter, gestructureerde CoT prompting heeft beperkte aandacht gekregen in eerder werk. Bovendien is het ontwerp van redeneerstructuren in gestructureerde CoT prompting vaak gebaseerd op heuristieken van niet-domeinexperts. In deze studie onderzoeken wij elke prompting-benadering in FinNLP. Wij evalueren de drie hoofd-promptingstijlen en FinCoT op CFA-stijl vragen die tien financiële domeinen beslaan. Wij observeren dat FinCoT de prestaties verbetert van 63,2% naar 80,5% en Qwen-2.5-7B-Instruct van 69,7% naar 74,2%, terwijl het aantal gegenereerde tokens achtvoudig wordt verminderd in vergelijking met gestructureerde CoT prompting. Onze bevindingen tonen aan dat domein-afgestemde gestructureerde prompts niet alleen de prestaties verbeteren en de inferentiekosten verlagen, maar ook meer interpreteerbare en expert-afgestemde redeneersporen opleveren.
English
This paper presents FinCoT, a structured chain-of-thought (CoT) prompting approach that incorporates insights from domain-specific expert financial reasoning to guide the reasoning traces of large language models. We investigate that there are three main prompting styles in FinNLP: (1) standard prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an explicit reasoning structure, such as the use of tags; and (3) structured CoT prompting--CoT prompting with explicit instructions or examples that define structured reasoning steps. Previously, FinNLP has primarily focused on prompt engineering with either standard or unstructured CoT prompting. However, structured CoT prompting has received limited attention in prior work. Furthermore, the design of reasoning structures in structured CoT prompting is often based on heuristics from non-domain experts. In this study, we investigate each prompting approach in FinNLP. We evaluate the three main prompting styles and FinCoT on CFA-style questions spanning ten financial domains. We observe that FinCoT improves performance from 63.2% to 80.5% and Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens eight-fold compared to structured CoT prompting. Our findings show that domain-aligned structured prompts not only improve performance and reduce inference costs but also yield more interpretable and expert-aligned reasoning traces.
PDF82June 24, 2025