Open-FinLLMs: Offene multimodale große Sprachmodelle für Finanzanwendungen
Open-FinLLMs: Open Multimodal Large Language Models for Financial Applications
August 20, 2024
Autoren: Qianqian Xie, Dong Li, Mengxi Xiao, Zihao Jiang, Ruoyu Xiang, Xiao Zhang, Zhengyu Chen, Yueru He, Weiguang Han, Yuzhe Yang, Shunian Chen, Yifei Zhang, Lihang Shen, Daniel Kim, Zhiwei Liu, Zheheng Luo, Yangyang Yu, Yupeng Cao, Zhiyang Deng, Zhiyuan Yao, Haohang Li, Duanyu Feng, Yongfu Dai, VijayaSai Somasundaram, Peng Lu, Yilun Zhao, Yitao Long, Guojun Xiong, Kaleb Smith, Honghai Yu, Yanzhao Lai, Min Peng, Jianyun Nie, Jordan W. Suchow, Xiao-Yang Liu, Benyou Wang, Alejandro Lopez-Lira, Jimin Huang, Sophia Ananiadou
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) haben die Entwicklung von Finanzanwendungen vorangetrieben, doch oft fehlt es ihnen an ausreichendem Finanzwissen und sie haben Schwierigkeiten bei Aufgaben, die multimodale Eingaben wie Tabellen und Zeitreihendaten erfordern. Um diese Einschränkungen zu beheben, stellen wir Open-FinLLMs vor, eine Reihe von Finanz-LLMs. Wir beginnen mit FinLLaMA, das auf einem 52 Milliarden Token umfassenden Finanzkorpus vorab trainiert wurde und Texte, Tabellen und Zeitreihendaten integriert, um umfassendes Finanzwissen einzubetten. Anschließend wird FinLLaMA durch die Anleitungsfine-Tuning mit 573.000 Finanzanweisungen verbessert, was zu FinLLaMA-instruct führt und die Leistung bei Aufgaben steigert. Abschließend präsentieren wir FinLLaVA, ein multimodales LLM, das mit 1,43 Millionen Bild-Text-Anweisungen trainiert wurde, um komplexe Finanzdatentypen zu verarbeiten. Umfangreiche Bewertungen zeigen die überlegene Leistung von FinLLaMA gegenüber LLaMA3-8B, LLaMA3.1-8B und BloombergGPT sowohl in Zero-Shot- als auch in Few-Shot-Einstellungen über 19 bzw. 4 Datensätze. FinLLaMA-instruct übertrifft GPT-4 und andere Finanz-LLMs auf 15 Datensätzen. FinLLaVA zeichnet sich durch das Verständnis von Tabellen und Diagrammen in 4 multimodalen Aufgaben aus. Darüber hinaus erzielt FinLLaMA beeindruckende Sharpe-Ratios in Handelssimulationen, was seine robusten Finanzanwendungsfähigkeiten unterstreicht. Wir werden unsere Modelle und Benchmarks kontinuierlich pflegen und verbessern, um die laufende Innovation in der akademischen Welt und der Industrie zu unterstützen.
English
Large language models (LLMs) have advanced financial applications, yet they
often lack sufficient financial knowledge and struggle with tasks involving
multi-modal inputs like tables and time series data. To address these
limitations, we introduce Open-FinLLMs, a series of Financial LLMs. We
begin with FinLLaMA, pre-trained on a 52 billion token financial corpus,
incorporating text, tables, and time-series data to embed comprehensive
financial knowledge. FinLLaMA is then instruction fine-tuned with 573K
financial instructions, resulting in FinLLaMA-instruct, which enhances task
performance. Finally, we present FinLLaVA, a multimodal LLM trained with 1.43M
image-text instructions to handle complex financial data types. Extensive
evaluations demonstrate FinLLaMA's superior performance over LLaMA3-8B,
LLaMA3.1-8B, and BloombergGPT in both zero-shot and few-shot settings across 19
and 4 datasets, respectively. FinLLaMA-instruct outperforms GPT-4 and other
Financial LLMs on 15 datasets. FinLLaVA excels in understanding tables and
charts across 4 multimodal tasks. Additionally, FinLLaMA achieves impressive
Sharpe Ratios in trading simulations, highlighting its robust financial
application capabilities. We will continually maintain and improve our models
and benchmarks to support ongoing innovation in academia and industry.Summary
AI-Generated Summary