FinCoT: Ancorando Cadeias de Pensamento no Raciocínio Financeiro Especializado
FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning
June 19, 2025
Autores: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul
cs.AI
Resumo
Este artigo apresenta o FinCoT, uma abordagem estruturada de prompting de cadeia de pensamento (CoT) que incorpora insights do raciocínio especializado em finanças para orientar os traços de raciocínio de grandes modelos de linguagem. Investigamos que existem três principais estilos de prompting em FinNLP: (1) prompting padrão--prompting zero-shot; (2) CoT não estruturado--prompting CoT sem uma estrutura de raciocínio explícita, como o uso de tags; e (3) prompting CoT estruturado--prompting CoT com instruções ou exemplos explícitos que definem etapas estruturadas de raciocínio. Anteriormente, o FinNLP focou principalmente na engenharia de prompts com prompting padrão ou CoT não estruturado. No entanto, o prompting CoT estruturado recebeu atenção limitada em trabalhos anteriores. Além disso, o design de estruturas de raciocínio no prompting CoT estruturado é frequentemente baseado em heurísticas de não especialistas do domínio. Neste estudo, investigamos cada abordagem de prompting em FinNLP. Avaliamos os três principais estilos de prompting e o FinCoT em questões no estilo CFA abrangendo dez domínios financeiros. Observamos que o FinCoT melhora o desempenho de 63,2% para 80,5% e o Qwen-2.5-7B-Instruct de 69,7% para 74,2%, enquanto reduz os tokens gerados em oito vezes em comparação com o prompting CoT estruturado. Nossos resultados mostram que prompts estruturados alinhados ao domínio não apenas melhoram o desempenho e reduzem os custos de inferência, mas também produzem traços de raciocínio mais interpretáveis e alinhados com especialistas.
English
This paper presents FinCoT, a structured chain-of-thought (CoT) prompting
approach that incorporates insights from domain-specific expert financial
reasoning to guide the reasoning traces of large language models. We
investigate that there are three main prompting styles in FinNLP: (1) standard
prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an
explicit reasoning structure, such as the use of tags; and (3) structured CoT
prompting--CoT prompting with explicit instructions or examples that define
structured reasoning steps. Previously, FinNLP has primarily focused on prompt
engineering with either standard or unstructured CoT prompting. However,
structured CoT prompting has received limited attention in prior work.
Furthermore, the design of reasoning structures in structured CoT prompting is
often based on heuristics from non-domain experts. In this study, we
investigate each prompting approach in FinNLP. We evaluate the three main
prompting styles and FinCoT on CFA-style questions spanning ten financial
domains. We observe that FinCoT improves performance from 63.2% to 80.5% and
Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens
eight-fold compared to structured CoT prompting. Our findings show that
domain-aligned structured prompts not only improve performance and reduce
inference costs but also yield more interpretable and expert-aligned reasoning
traces.