ChatPaper.aiChatPaper

RKEFino1: Регуляторно-обогащенная языковая модель с расширенными знаниями

RKEFino1: A Regulation Knowledge-Enhanced Large Language Model

June 6, 2025
Авторы: Yan Wang, Yueru He, Ruoyu Xiang, Jeff Zhao
cs.AI

Аннотация

Последние достижения в области больших языковых моделей (LLMs) открывают значительные перспективы для финансовых приложений, но при этом создают серьезные проблемы с точностью и соответствием требованиям в области цифровой регуляторной отчетности (DRR). Для решения этих проблем мы предлагаем RKEFino1 — модель финансового рассуждения, усиленную знаниями о регулировании, построенную на основе Fino1 и дообученную с использованием предметных знаний из XBRL, CDM и MOF. Мы формулируем две задачи вопросов и ответов — на основе знаний и математического рассуждения — и вводим новую задачу числового распознавания именованных сущностей (Numerical NER), охватывающую финансовые объекты как в текстах, так и в таблицах. Экспериментальные результаты демонстрируют эффективность и способность к обобщению модели RKEFino1 в задачах, критически важных для соблюдения нормативных требований. Мы опубликовали нашу модель на платформе Hugging Face.
English
Recent advances in large language models (LLMs) hold great promise for financial applications but introduce critical accuracy and compliance challenges in Digital Regulatory Reporting (DRR). To address these issues, we propose RKEFino1, a regulation knowledge-enhanced financial reasoning model built upon Fino1, fine-tuned with domain knowledge from XBRL, CDM, and MOF. We formulate two QA tasks-knowledge-based and mathematical reasoning-and introduce a novel Numerical NER task covering financial entities in both sentences and tables. Experimental results demonstrate the effectiveness and generalization capacity of RKEFino1 in compliance-critical financial tasks. We have released our model on Hugging Face.
PDF32June 11, 2025