FinCoT: Fundamentando el Pensamiento en Cadena en el Razonamiento Financiero Experto
FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning
June 19, 2025
Autores: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul
cs.AI
Resumen
Este artículo presenta FinCoT, un enfoque estructurado de cadena de pensamiento (CoT, por sus siglas en inglés) que incorpora conocimientos del razonamiento experto en el dominio financiero para guiar los rastros de razonamiento de los modelos de lenguaje grandes. Investigamos que existen tres estilos principales de "prompting" en FinNLP: (1) "prompting" estándar—"zero-shot prompting"; (2) CoT no estructurado—"prompting" CoT sin una estructura de razonamiento explícita, como el uso de etiquetas; y (3) "prompting" CoT estructurado—"prompting" CoT con instrucciones o ejemplos explícitos que definen pasos de razonamiento estructurados. Anteriormente, FinNLP se ha centrado principalmente en la ingeniería de "prompts" utilizando "prompting" estándar o CoT no estructurado. Sin embargo, el "prompting" CoT estructurado ha recibido poca atención en trabajos previos. Además, el diseño de estructuras de razonamiento en el "prompting" CoT estructurado a menudo se basa en heurísticas de expertos no especializados en el dominio. En este estudio, investigamos cada enfoque de "prompting" en FinNLP. Evaluamos los tres estilos principales de "prompting" y FinCoT en preguntas de estilo CFA que abarcan diez dominios financieros. Observamos que FinCoT mejora el rendimiento de 63.2% a 80.5% y de Qwen-2.5-7B-Instruct de 69.7% a 74.2%, mientras reduce los tokens generados ocho veces en comparación con el "prompting" CoT estructurado. Nuestros hallazgos muestran que los "prompts" estructurados alineados con el dominio no solo mejoran el rendimiento y reducen los costos de inferencia, sino que también producen rastros de razonamiento más interpretables y alineados con el razonamiento experto.
English
This paper presents FinCoT, a structured chain-of-thought (CoT) prompting
approach that incorporates insights from domain-specific expert financial
reasoning to guide the reasoning traces of large language models. We
investigate that there are three main prompting styles in FinNLP: (1) standard
prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an
explicit reasoning structure, such as the use of tags; and (3) structured CoT
prompting--CoT prompting with explicit instructions or examples that define
structured reasoning steps. Previously, FinNLP has primarily focused on prompt
engineering with either standard or unstructured CoT prompting. However,
structured CoT prompting has received limited attention in prior work.
Furthermore, the design of reasoning structures in structured CoT prompting is
often based on heuristics from non-domain experts. In this study, we
investigate each prompting approach in FinNLP. We evaluate the three main
prompting styles and FinCoT on CFA-style questions spanning ten financial
domains. We observe that FinCoT improves performance from 63.2% to 80.5% and
Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens
eight-fold compared to structured CoT prompting. Our findings show that
domain-aligned structured prompts not only improve performance and reduce
inference costs but also yield more interpretable and expert-aligned reasoning
traces.