RKEFino1: 규제 지식 강화 대형 언어 모델
RKEFino1: A Regulation Knowledge-Enhanced Large Language Model
June 6, 2025
저자: Yan Wang, Yueru He, Ruoyu Xiang, Jeff Zhao
cs.AI
초록
대규모 언어 모델(LLM)의 최근 발전은 금융 애플리케이션에 큰 가능성을 열어주지만, 디지털 규제 보고(DRR)에서 정확성과 규제 준수 측면에서 중요한 과제를 제기합니다. 이러한 문제를 해결하기 위해, 우리는 XBRL, CDM, MOF의 도메인 지식으로 미세 조정된 Fino1 기반의 규제 지식 강화 금융 추론 모델인 RKEFino1을 제안합니다. 우리는 지식 기반 및 수학적 추론이라는 두 가지 QA 과제를 정의하고, 문장과 테이블 내 금융 개체를 포괄하는 새로운 Numerical NER 과제를 도입했습니다. 실험 결과는 RKEFino1이 규제 준수가 중요한 금융 과제에서 효과적이고 일반화 능력이 뛰어남을 보여줍니다. 우리는 이 모델을 Hugging Face에 공개했습니다.
English
Recent advances in large language models (LLMs) hold great promise for
financial applications but introduce critical accuracy and compliance
challenges in Digital Regulatory Reporting (DRR). To address these issues, we
propose RKEFino1, a regulation knowledge-enhanced financial reasoning model
built upon Fino1, fine-tuned with domain knowledge from XBRL, CDM, and MOF. We
formulate two QA tasks-knowledge-based and mathematical reasoning-and introduce
a novel Numerical NER task covering financial entities in both sentences and
tables. Experimental results demonstrate the effectiveness and generalization
capacity of RKEFino1 in compliance-critical financial tasks. We have released
our model on Hugging Face.