ChatPaper.aiChatPaper

FinCoT: Ancorare il Ragionamento a Catena al Pensiero Esperto in Finanza

FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning

June 19, 2025
Autori: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul
cs.AI

Abstract

Questo articolo presenta FinCoT, un approccio strutturato di prompting a catena di pensiero (CoT) che incorpora intuizioni derivanti dal ragionamento finanziario di esperti del settore per guidare le tracce di ragionamento dei grandi modelli linguistici. Indaghiamo l'esistenza di tre principali stili di prompting in FinNLP: (1) prompting standard--prompting zero-shot; (2) CoT non strutturato--prompting CoT senza una struttura di ragionamento esplicita, come l'uso di tag; e (3) prompting CoT strutturato--prompting CoT con istruzioni o esempi espliciti che definiscono passaggi di ragionamento strutturati. In precedenza, FinNLP si è concentrato principalmente sull'ingegneria dei prompt utilizzando prompting standard o CoT non strutturato. Tuttavia, il prompting CoT strutturato ha ricevuto un'attenzione limitata nei lavori precedenti. Inoltre, la progettazione delle strutture di ragionamento nel prompting CoT strutturato è spesso basata su euristiche provenienti da non esperti del dominio. In questo studio, indaghiamo ciascun approccio di prompting in FinNLP. Valutiamo i tre principali stili di prompting e FinCoT su domande in stile CFA che coprono dieci domini finanziari. Osserviamo che FinCoT migliora le prestazioni da 63,2% a 80,5% e Qwen-2.5-7B-Instruct da 69,7% a 74,2%, riducendo al contempo i token generati di otto volte rispetto al prompting CoT strutturato. I nostri risultati dimostrano che i prompt strutturati allineati al dominio non solo migliorano le prestazioni e riducono i costi di inferenza, ma producono anche tracce di ragionamento più interpretabili e allineate agli esperti.
English
This paper presents FinCoT, a structured chain-of-thought (CoT) prompting approach that incorporates insights from domain-specific expert financial reasoning to guide the reasoning traces of large language models. We investigate that there are three main prompting styles in FinNLP: (1) standard prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an explicit reasoning structure, such as the use of tags; and (3) structured CoT prompting--CoT prompting with explicit instructions or examples that define structured reasoning steps. Previously, FinNLP has primarily focused on prompt engineering with either standard or unstructured CoT prompting. However, structured CoT prompting has received limited attention in prior work. Furthermore, the design of reasoning structures in structured CoT prompting is often based on heuristics from non-domain experts. In this study, we investigate each prompting approach in FinNLP. We evaluate the three main prompting styles and FinCoT on CFA-style questions spanning ten financial domains. We observe that FinCoT improves performance from 63.2% to 80.5% and Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens eight-fold compared to structured CoT prompting. Our findings show that domain-aligned structured prompts not only improve performance and reduce inference costs but also yield more interpretable and expert-aligned reasoning traces.
PDF82June 24, 2025