Fin-R1: Un Modello Linguistico di Grandi Dimensioni per il Ragionamento Finanziario attraverso l'Apprendimento per Rinforzo
Fin-R1: A Large Language Model for Financial Reasoning through Reinforcement Learning
March 20, 2025
Autori: Zhaowei Liu, Xin Guo, Fangqi Lou, Lingfeng Zeng, Jinyi Niu, Zixuan Wang, Jiajie Xu, Weige Cai, Ziwei Yang, Xueqian Zhao, Chao Li, Sheng Xu, Dezhi Chen, Yun Chen, Zuo Bai, Liwen Zhang
cs.AI
Abstract
I modelli linguistici di ragionamento su larga scala stanno evolvendo rapidamente in vari domini. Tuttavia, le loro capacità nel gestire compiti finanziari complessi richiedono ancora un'esplorazione approfondita. In questo articolo, presentiamo Fin-R1, un modello linguistico di ragionamento progettato specificamente per il settore finanziario. Fin-R1 è costruito utilizzando un'architettura a due stadi, sfruttando un dataset di ragionamento finanziario distillato e processato basato su DeepSeek-R1. Attraverso il fine-tuning supervisionato (SFT) e l'addestramento con apprendimento per rinforzo (RL), dimostra prestazioni vicine a DeepSeek-R1 con una dimensione di parametri di 7 miliardi in una gamma di compiti di ragionamento finanziario. Raggiunge lo stato dell'arte (SOTA) nei task FinQA e ConvFinQA tra i modelli linguistici valutati, superando anche modelli più grandi in altri compiti. Fin-R1 mostra forti capacità di ragionamento e decision-making, fornendo soluzioni a vari problemi incontrati nel dominio finanziario. Il nostro codice è disponibile all'indirizzo https://github.com/SUFE-AIFLM-Lab/Fin-R1.
English
Reasoning large language models are rapidly evolving across various domains.
However, their capabilities in handling complex financial tasks still require
in-depth exploration. In this paper, we introduce Fin-R1, a reasoning large
language model specifically designed for the financial sector. Fin-R1 is built
using a two-stage architecture, leveraging a financial reasoning dataset
distilled and processed based on DeepSeek-R1. Through supervised fine-tuning
(SFT) and reinforcement learning (RL) training, it demonstrates performance
close to DeepSeek-R1 with a parameter size of 7 billion across a range of
financial reasoning tasks. It achieves the state-of-the-art (SOTA) in the FinQA
and ConvFinQA tasks between those LLMs in our evaluation, surpassing larger
models in other tasks as well. Fin-R1 showcases strong reasoning and
decision-making capabilities, providing solutions to various problems
encountered in the financial domain. Our code is available at
https://github.com/SUFE-AIFLM-Lab/Fin-R1.