ChatPaper.aiChatPaper

FinCoT: Обоснование цепочки рассуждений в экспертных финансовых моделях

FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning

June 19, 2025
Авторы: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul
cs.AI

Аннотация

В данной статье представлен FinCoT — структурированный подход к цепочке рассуждений (CoT), который включает в себя знания экспертов в области финансов для управления процессом рассуждений крупных языковых моделей. Мы выделяем три основных стиля подсказок в FinNLP: (1) стандартные подсказки — zero-shot prompting; (2) неструктурированные CoT — подсказки CoT без явной структуры рассуждений, например, без использования тегов; и (3) структурированные CoT — подсказки CoT с явными инструкциями или примерами, определяющими структурированные шаги рассуждений. Ранее FinNLP в основном сосредотачивался на инженерии подсказок с использованием стандартных или неструктурированных CoT. Однако структурированные CoT получили ограниченное внимание в предыдущих работах. Более того, проектирование структур рассуждений в структурированных CoT часто основывалось на эвристиках, предложенных неэкспертами в данной области. В данном исследовании мы анализируем каждый из подходов к подсказкам в FinNLP. Мы оцениваем три основных стиля подсказок и FinCoT на вопросах в стиле CFA, охватывающих десять финансовых областей. Мы наблюдаем, что FinCoT улучшает производительность с 63,2% до 80,5% для одной модели и с 69,7% до 74,2% для модели Qwen-2.5-7B-Instruct, одновременно сокращая количество генерируемых токенов в восемь раз по сравнению со структурированными CoT. Наши результаты показывают, что структурированные подсказки, согласованные с предметной областью, не только повышают производительность и снижают затраты на вывод, но и обеспечивают более интерпретируемые и согласованные с экспертами цепочки рассуждений.
English
This paper presents FinCoT, a structured chain-of-thought (CoT) prompting approach that incorporates insights from domain-specific expert financial reasoning to guide the reasoning traces of large language models. We investigate that there are three main prompting styles in FinNLP: (1) standard prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an explicit reasoning structure, such as the use of tags; and (3) structured CoT prompting--CoT prompting with explicit instructions or examples that define structured reasoning steps. Previously, FinNLP has primarily focused on prompt engineering with either standard or unstructured CoT prompting. However, structured CoT prompting has received limited attention in prior work. Furthermore, the design of reasoning structures in structured CoT prompting is often based on heuristics from non-domain experts. In this study, we investigate each prompting approach in FinNLP. We evaluate the three main prompting styles and FinCoT on CFA-style questions spanning ten financial domains. We observe that FinCoT improves performance from 63.2% to 80.5% and Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens eight-fold compared to structured CoT prompting. Our findings show that domain-aligned structured prompts not only improve performance and reduce inference costs but also yield more interpretable and expert-aligned reasoning traces.
PDF72June 24, 2025