ChatPaper.aiChatPaper

RKEFino1: Ein regelungswissensverstärktes großes Sprachmodell

RKEFino1: A Regulation Knowledge-Enhanced Large Language Model

June 6, 2025
Autoren: Yan Wang, Yueru He, Ruoyu Xiang, Jeff Zhao
cs.AI

Zusammenfassung

Jüngste Fortschritte bei großen Sprachmodellen (LLMs) bergen großes Potenzial für Finanzanwendungen, führen jedoch zu kritischen Herausforderungen in Bezug auf Genauigkeit und Compliance im Bereich der digitalen regulatorischen Berichterstattung (DRR). Um diese Probleme zu lösen, schlagen wir RKEFino1 vor, ein regelungswissensverstärktes Finanzmodell, das auf Fino1 basiert und mit Domänenwissen aus XBRL, CDM und MOF feinabgestimmt wurde. Wir formulieren zwei QA-Aufgaben – wissensbasierte und mathematische Schlussfolgerungen – und führen eine neuartige Numerical NER-Aufgabe ein, die finanzielle Entitäten sowohl in Sätzen als auch in Tabellen abdeckt. Experimentelle Ergebnisse demonstrieren die Effektivität und Generalisierungsfähigkeit von RKEFino1 bei compliancekritischen Finanzaufgaben. Unser Modell wurde auf Hugging Face veröffentlicht.
English
Recent advances in large language models (LLMs) hold great promise for financial applications but introduce critical accuracy and compliance challenges in Digital Regulatory Reporting (DRR). To address these issues, we propose RKEFino1, a regulation knowledge-enhanced financial reasoning model built upon Fino1, fine-tuned with domain knowledge from XBRL, CDM, and MOF. We formulate two QA tasks-knowledge-based and mathematical reasoning-and introduce a novel Numerical NER task covering financial entities in both sentences and tables. Experimental results demonstrate the effectiveness and generalization capacity of RKEFino1 in compliance-critical financial tasks. We have released our model on Hugging Face.
PDF32June 11, 2025