ChatPaper.aiChatPaper

Datenzentrierte Finanz-Großsprachmodelle

Data-Centric Financial Large Language Models

October 7, 2023
papers.authors: Zhixuan Chu, Huaiyu Guo, Xinyuan Zhou, Yijia Wang, Fei Yu, Hong Chen, Wanqing Xu, Xin Lu, Qing Cui, Longfei Li, Jun Zhou, Sheng Li
cs.AI

papers.abstract

Große Sprachmodelle (LLMs) zeigen vielversprechende Ergebnisse bei Aufgaben der natürlichen Sprachverarbeitung, stoßen jedoch an ihre Grenzen, wenn sie direkt auf komplexe Domänen wie die Finanzwelt angewendet werden. LLMs haben Schwierigkeiten, alle relevanten Informationen zu verarbeiten und zu integrieren. Wir schlagen einen datenzentrierten Ansatz vor, um LLMs besser für finanzielle Aufgaben zu rüsten. Unsere zentrale Erkenntnis ist, dass es effektiver ist, die Daten vorzuverarbeiten und vorab zu verstehen, anstatt das LLM mit allen Informationen auf einmal zu überlasten. Wir entwickeln ein finanzielles LLM (FLLM), das durch multitask-basiertes Prompt-Finetuning die Vorverarbeitung und das Vorverständnis der Daten ermöglicht. Allerdings sind annotierte Daten für jede Aufgabe knapp. Um die Kosten für manuelle Annotationen zu umgehen, setzen wir abduktive Augmentationslogik (AAR) ein, um automatisch Trainingsdaten zu generieren, indem wir die Pseudolabels aus den eigenen Ausgaben des FLLM anpassen. Experimente zeigen, dass unser datenzentriertes FLLM mit AAR deutlich besser abschneidet als Baseline-Finanz-LLMs, die für Rohtext entwickelt wurden, und Spitzenwerte bei Aufgaben der Finanzanalyse und -interpretation erreicht. Zudem stellen wir einen neuen Benchmark für Finanzanalyse und -interpretation als Open Source zur Verfügung. Unsere Methodik bietet einen vielversprechenden Weg, um das Potenzial von LLMs für komplexe, realweltliche Domänen zu erschließen.
English
Large language models (LLMs) show promise for natural language tasks but struggle when applied directly to complex domains like finance. LLMs have difficulty reasoning about and integrating all relevant information. We propose a data-centric approach to enable LLMs to better handle financial tasks. Our key insight is that rather than overloading the LLM with everything at once, it is more effective to preprocess and pre-understand the data. We create a financial LLM (FLLM) using multitask prompt-based finetuning to achieve data pre-processing and pre-understanding. However, labeled data is scarce for each task. To overcome manual annotation costs, we employ abductive augmentation reasoning (AAR) to automatically generate training data by modifying the pseudo labels from FLLM's own outputs. Experiments show our data-centric FLLM with AAR substantially outperforms baseline financial LLMs designed for raw text, achieving state-of-the-art on financial analysis and interpretation tasks. We also open source a new benchmark for financial analysis and interpretation. Our methodology provides a promising path to unlock LLMs' potential for complex real-world domains.
PDF143December 15, 2024