ChatPaper.aiChatPaper

RKEFino1 : Un modèle de langage de grande taille enrichi en connaissances réglementaires

RKEFino1: A Regulation Knowledge-Enhanced Large Language Model

June 6, 2025
Auteurs: Yan Wang, Yueru He, Ruoyu Xiang, Jeff Zhao
cs.AI

Résumé

Les récentes avancées dans les modèles de langage de grande taille (LLMs) offrent un potentiel prometteur pour les applications financières, mais introduisent des défis critiques en matière de précision et de conformité dans le domaine du Reporting Réglementaire Numérique (DRR). Pour répondre à ces problématiques, nous proposons RKEFino1, un modèle de raisonnement financier enrichi par des connaissances réglementaires, construit sur la base de Fino1 et affiné avec des connaissances spécifiques issues de XBRL, CDM et MOF. Nous formulons deux tâches de question-réponse - basées sur les connaissances et le raisonnement mathématique - et introduisons une nouvelle tâche de Reconnaissance d'Entités Nominales (NER) numérique couvrant les entités financières dans les phrases et les tableaux. Les résultats expérimentaux démontrent l'efficacité et la capacité de généralisation de RKEFino1 dans des tâches financières critiques pour la conformité. Nous avons rendu notre modèle disponible sur Hugging Face.
English
Recent advances in large language models (LLMs) hold great promise for financial applications but introduce critical accuracy and compliance challenges in Digital Regulatory Reporting (DRR). To address these issues, we propose RKEFino1, a regulation knowledge-enhanced financial reasoning model built upon Fino1, fine-tuned with domain knowledge from XBRL, CDM, and MOF. We formulate two QA tasks-knowledge-based and mathematical reasoning-and introduce a novel Numerical NER task covering financial entities in both sentences and tables. Experimental results demonstrate the effectiveness and generalization capacity of RKEFino1 in compliance-critical financial tasks. We have released our model on Hugging Face.
PDF32June 11, 2025