ChatPaper.aiChatPaper

RKEFino1: Een groot taalmodel versterkt met regelgevende kennis

RKEFino1: A Regulation Knowledge-Enhanced Large Language Model

June 6, 2025
Auteurs: Yan Wang, Yueru He, Ruoyu Xiang, Jeff Zhao
cs.AI

Samenvatting

Recente ontwikkelingen in grote taalmodellen (LLMs) bieden veelbelovende mogelijkheden voor financiële toepassingen, maar introduceren tegelijkertijd kritieke uitdagingen op het gebied van nauwkeurigheid en naleving in Digitale Regelgevende Rapportage (DRR). Om deze problemen aan te pakken, stellen we RKEFino1 voor, een regelgevingskennis-versterkt financieel redeneermodel gebaseerd op Fino1, dat is afgestemd met domeinkennis uit XBRL, CDM en MOF. We formuleren twee QA-taken—kennisgebaseerd en wiskundig redeneren—en introduceren een nieuwe Numerieke NER-taak die financiële entiteiten in zowel zinnen als tabellen omvat. Experimentele resultaten tonen de effectiviteit en generalisatiecapaciteit van RKEFino1 aan in nalevingskritieke financiële taken. We hebben ons model vrijgegeven op Hugging Face.
English
Recent advances in large language models (LLMs) hold great promise for financial applications but introduce critical accuracy and compliance challenges in Digital Regulatory Reporting (DRR). To address these issues, we propose RKEFino1, a regulation knowledge-enhanced financial reasoning model built upon Fino1, fine-tuned with domain knowledge from XBRL, CDM, and MOF. We formulate two QA tasks-knowledge-based and mathematical reasoning-and introduce a novel Numerical NER task covering financial entities in both sentences and tables. Experimental results demonstrate the effectiveness and generalization capacity of RKEFino1 in compliance-critical financial tasks. We have released our model on Hugging Face.
PDF42June 11, 2025