ChatPaper.aiChatPaper

RKEFino1: 規制知識強化型大規模言語モデル

RKEFino1: A Regulation Knowledge-Enhanced Large Language Model

June 6, 2025
著者: Yan Wang, Yueru He, Ruoyu Xiang, Jeff Zhao
cs.AI

要旨

大規模言語モデル(LLM)の最近の進展は、金融アプリケーションにおいて大きな可能性を秘めているが、デジタル規制報告(DRR)においては正確性とコンプライアンスの重大な課題を引き起こしている。これらの課題に対処するため、我々はFino1を基盤とし、XBRL、CDM、MOFのドメイン知識でファインチューニングした規制知識強化型金融推論モデルRKEFino1を提案する。我々は、知識ベースと数学的推論の2つのQAタスクを設定し、文と表の両方に含まれる金融エンティティをカバーする新しい数値NERタスクを導入した。実験結果は、RKEFino1がコンプライアンスが重要な金融タスクにおいて有効性と汎化能力を発揮することを示している。我々はこのモデルをHugging Face上で公開した。
English
Recent advances in large language models (LLMs) hold great promise for financial applications but introduce critical accuracy and compliance challenges in Digital Regulatory Reporting (DRR). To address these issues, we propose RKEFino1, a regulation knowledge-enhanced financial reasoning model built upon Fino1, fine-tuned with domain knowledge from XBRL, CDM, and MOF. We formulate two QA tasks-knowledge-based and mathematical reasoning-and introduce a novel Numerical NER task covering financial entities in both sentences and tables. Experimental results demonstrate the effectiveness and generalization capacity of RKEFino1 in compliance-critical financial tasks. We have released our model on Hugging Face.
PDF32June 11, 2025