RKEFino1: Un Modello Linguistico di Grande Dimensione Potenziato con Conoscenza Normativa
RKEFino1: A Regulation Knowledge-Enhanced Large Language Model
June 6, 2025
Autori: Yan Wang, Yueru He, Ruoyu Xiang, Jeff Zhao
cs.AI
Abstract
I recenti progressi nei modelli linguistici su larga scala (LLM) offrono grandi opportunità per le applicazioni finanziarie, ma introducono sfide critiche in termini di accuratezza e conformità nel contesto del Digital Regulatory Reporting (DRR). Per affrontare questi problemi, proponiamo RKEFino1, un modello di ragionamento finanziario potenziato con conoscenze normative, basato su Fino1 e affinato con conoscenze di dominio provenienti da XBRL, CDM e MOF. Formuliamo due task di domanda-risposta—uno basato sulla conoscenza e uno sul ragionamento matematico—e introduciamo un nuovo task di Named Entity Recognition (NER) numerico che copre entità finanziarie sia in frasi che in tabelle. I risultati sperimentali dimostrano l'efficacia e la capacità di generalizzazione di RKEFino1 in task finanziari critici per la conformità. Abbiamo reso disponibile il nostro modello su Hugging Face.
English
Recent advances in large language models (LLMs) hold great promise for
financial applications but introduce critical accuracy and compliance
challenges in Digital Regulatory Reporting (DRR). To address these issues, we
propose RKEFino1, a regulation knowledge-enhanced financial reasoning model
built upon Fino1, fine-tuned with domain knowledge from XBRL, CDM, and MOF. We
formulate two QA tasks-knowledge-based and mathematical reasoning-and introduce
a novel Numerical NER task covering financial entities in both sentences and
tables. Experimental results demonstrate the effectiveness and generalization
capacity of RKEFino1 in compliance-critical financial tasks. We have released
our model on Hugging Face.