FinCoT: Ancorare il Ragionamento a Catena al Pensiero Esperto in Finanza
FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning
June 19, 2025
Autori: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul
cs.AI
Abstract
Questo articolo presenta FinCoT, un approccio strutturato di prompting a catena di pensiero (CoT) che incorpora intuizioni derivanti dal ragionamento finanziario di esperti del settore per guidare le tracce di ragionamento dei grandi modelli linguistici. Indaghiamo l'esistenza di tre principali stili di prompting in FinNLP: (1) prompting standard--prompting zero-shot; (2) CoT non strutturato--prompting CoT senza una struttura di ragionamento esplicita, come l'uso di tag; e (3) prompting CoT strutturato--prompting CoT con istruzioni o esempi espliciti che definiscono passaggi di ragionamento strutturati. In precedenza, FinNLP si è concentrato principalmente sull'ingegneria dei prompt utilizzando prompting standard o CoT non strutturato. Tuttavia, il prompting CoT strutturato ha ricevuto un'attenzione limitata nei lavori precedenti. Inoltre, la progettazione delle strutture di ragionamento nel prompting CoT strutturato è spesso basata su euristiche provenienti da non esperti del dominio. In questo studio, indaghiamo ciascun approccio di prompting in FinNLP. Valutiamo i tre principali stili di prompting e FinCoT su domande in stile CFA che coprono dieci domini finanziari. Osserviamo che FinCoT migliora le prestazioni da 63,2% a 80,5% e Qwen-2.5-7B-Instruct da 69,7% a 74,2%, riducendo al contempo i token generati di otto volte rispetto al prompting CoT strutturato. I nostri risultati dimostrano che i prompt strutturati allineati al dominio non solo migliorano le prestazioni e riducono i costi di inferenza, ma producono anche tracce di ragionamento più interpretabili e allineate agli esperti.
English
This paper presents FinCoT, a structured chain-of-thought (CoT) prompting
approach that incorporates insights from domain-specific expert financial
reasoning to guide the reasoning traces of large language models. We
investigate that there are three main prompting styles in FinNLP: (1) standard
prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an
explicit reasoning structure, such as the use of tags; and (3) structured CoT
prompting--CoT prompting with explicit instructions or examples that define
structured reasoning steps. Previously, FinNLP has primarily focused on prompt
engineering with either standard or unstructured CoT prompting. However,
structured CoT prompting has received limited attention in prior work.
Furthermore, the design of reasoning structures in structured CoT prompting is
often based on heuristics from non-domain experts. In this study, we
investigate each prompting approach in FinNLP. We evaluate the three main
prompting styles and FinCoT on CFA-style questions spanning ten financial
domains. We observe that FinCoT improves performance from 63.2% to 80.5% and
Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens
eight-fold compared to structured CoT prompting. Our findings show that
domain-aligned structured prompts not only improve performance and reduce
inference costs but also yield more interpretable and expert-aligned reasoning
traces.