ChatPaper.aiChatPaper

Het Synthetiseren van Gedragsmatig Onderbouwde Redeneerketens: Een Data-Generatie Framework voor Taalmodellen in Persoonlijke Financiën

Synthesizing Behaviorally-Grounded Reasoning Chains: A Data-Generation Framework for Personal Finance LLMs

September 17, 2025
Auteurs: Akhil Theerthala
cs.AI

Samenvatting

Gepersonaliseerd financieel advies vereist aandacht voor gebruikersdoelen, beperkingen, risicotolerantie en jurisdictie. Eerder werk met grote taalmodelen (LLM's) richtte zich op ondersteuningssystemen voor beleggers en financieel planners. Tegelijkertijd onderzoeken talrijke recente studies bredere persoonlijke financiële taken, zoals budgetteren, schuldbeheer, pensioen- en estateplanning, via agent-gebaseerde pijplijnen die hoge onderhoudskosten met zich meebrengen en minder dan 25% van hun verwachte financiële rendement opleveren. In deze studie introduceren we een nieuw en reproduceerbaar raamwerk dat relevante financiële context integreert met gedragsfinanciële studies om supervisiedata te construeren voor end-to-end adviseurs. Met dit raamwerk creëren we een 19k-sample redeneerdataset en voeren we een uitgebreide fine-tuning uit van het Qwen-3-8B-model op deze dataset. Door middel van een held-out testset en een blind LLM-jurystudie tonen we aan dat, door zorgvuldige datacuratie en gedragsintegratie, ons 8B-model prestaties bereikt die vergelijkbaar zijn met aanzienlijk grotere baseline-modellen (14-32B parameters) op het gebied van feitelijke nauwkeurigheid, vlotheid en personalisatie, terwijl de kosten 80% lager zijn dan die van de grotere tegenhangers.
English
Personalized financial advice requires consideration of user goals, constraints, risk tolerance, and jurisdiction. Prior LLM work has focused on support systems for investors and financial planners. Simultaneously, numerous recent studies examine broader personal finance tasks, including budgeting, debt management, retirement, and estate planning, through agentic pipelines that incur high maintenance costs, yielding less than 25% of their expected financial returns. In this study, we introduce a novel and reproducible framework that integrates relevant financial context with behavioral finance studies to construct supervision data for end-to-end advisors. Using this framework, we create a 19k sample reasoning dataset and conduct a comprehensive fine-tuning of the Qwen-3-8B model on the dataset. Through a held-out test split and a blind LLM-jury study, we demonstrate that through careful data curation and behavioral integration, our 8B model achieves performance comparable to significantly larger baselines (14-32B parameters) across factual accuracy, fluency, and personalization metrics while incurring 80% lower costs than the larger counterparts.
PDF02September 18, 2025