ChatPaper.aiChatPaper

Fin-R1: Un Modello Linguistico di Grandi Dimensioni per il Ragionamento Finanziario attraverso l'Apprendimento per Rinforzo

Fin-R1: A Large Language Model for Financial Reasoning through Reinforcement Learning

March 20, 2025
Autori: Zhaowei Liu, Xin Guo, Fangqi Lou, Lingfeng Zeng, Jinyi Niu, Zixuan Wang, Jiajie Xu, Weige Cai, Ziwei Yang, Xueqian Zhao, Chao Li, Sheng Xu, Dezhi Chen, Yun Chen, Zuo Bai, Liwen Zhang
cs.AI

Abstract

I modelli linguistici di ragionamento su larga scala stanno evolvendo rapidamente in vari domini. Tuttavia, le loro capacità nel gestire compiti finanziari complessi richiedono ancora un'esplorazione approfondita. In questo articolo, presentiamo Fin-R1, un modello linguistico di ragionamento progettato specificamente per il settore finanziario. Fin-R1 è costruito utilizzando un'architettura a due stadi, sfruttando un dataset di ragionamento finanziario distillato e processato basato su DeepSeek-R1. Attraverso il fine-tuning supervisionato (SFT) e l'addestramento con apprendimento per rinforzo (RL), dimostra prestazioni vicine a DeepSeek-R1 con una dimensione di parametri di 7 miliardi in una gamma di compiti di ragionamento finanziario. Raggiunge lo stato dell'arte (SOTA) nei task FinQA e ConvFinQA tra i modelli linguistici valutati, superando anche modelli più grandi in altri compiti. Fin-R1 mostra forti capacità di ragionamento e decision-making, fornendo soluzioni a vari problemi incontrati nel dominio finanziario. Il nostro codice è disponibile all'indirizzo https://github.com/SUFE-AIFLM-Lab/Fin-R1.
English
Reasoning large language models are rapidly evolving across various domains. However, their capabilities in handling complex financial tasks still require in-depth exploration. In this paper, we introduce Fin-R1, a reasoning large language model specifically designed for the financial sector. Fin-R1 is built using a two-stage architecture, leveraging a financial reasoning dataset distilled and processed based on DeepSeek-R1. Through supervised fine-tuning (SFT) and reinforcement learning (RL) training, it demonstrates performance close to DeepSeek-R1 with a parameter size of 7 billion across a range of financial reasoning tasks. It achieves the state-of-the-art (SOTA) in the FinQA and ConvFinQA tasks between those LLMs in our evaluation, surpassing larger models in other tasks as well. Fin-R1 showcases strong reasoning and decision-making capabilities, providing solutions to various problems encountered in the financial domain. Our code is available at https://github.com/SUFE-AIFLM-Lab/Fin-R1.
PDF274March 21, 2025