ChatPaper.aiChatPaper

Open-FinLLMs: Modelos de Linguagem Multimodais Grandes Abertos para Aplicações Financeiras

Open-FinLLMs: Open Multimodal Large Language Models for Financial Applications

August 20, 2024
Autores: Qianqian Xie, Dong Li, Mengxi Xiao, Zihao Jiang, Ruoyu Xiang, Xiao Zhang, Zhengyu Chen, Yueru He, Weiguang Han, Yuzhe Yang, Shunian Chen, Yifei Zhang, Lihang Shen, Daniel Kim, Zhiwei Liu, Zheheng Luo, Yangyang Yu, Yupeng Cao, Zhiyang Deng, Zhiyuan Yao, Haohang Li, Duanyu Feng, Yongfu Dai, VijayaSai Somasundaram, Peng Lu, Yilun Zhao, Yitao Long, Guojun Xiong, Kaleb Smith, Honghai Yu, Yanzhao Lai, Min Peng, Jianyun Nie, Jordan W. Suchow, Xiao-Yang Liu, Benyou Wang, Alejandro Lopez-Lira, Jimin Huang, Sophia Ananiadou
cs.AI

Resumo

Grandes modelos de linguagem (LLMs) têm avançado em aplicações financeiras, no entanto, frequentemente carecem de conhecimento financeiro suficiente e enfrentam dificuldades em tarefas envolvendo entradas multimodais como tabelas e dados de séries temporais. Para lidar com essas limitações, apresentamos os Open-FinLLMs, uma série de LLMs Financeiros. Começamos com o FinLLaMA, pré-treinado em um corpus financeiro de 52 bilhões de tokens, incorporando texto, tabelas e dados de séries temporais para incorporar conhecimento financeiro abrangente. O FinLLaMA é então ajustado com instruções com 573 mil instruções financeiras, resultando no FinLLaMA-instruct, que melhora o desempenho em tarefas. Por fim, apresentamos o FinLLaVA, um LLM multimodal treinado com 1,43 milhões de instruções de imagem-texto para lidar com tipos complexos de dados financeiros. Avaliações extensas demonstram o desempenho superior do FinLLaMA em relação ao LLaMA3-8B, LLaMA3.1-8B e BloombergGPT em configurações de zero-shot e few-shot em 19 e 4 conjuntos de dados, respectivamente. O FinLLaMA-instruct supera o GPT-4 e outros LLMs Financeiros em 15 conjuntos de dados. O FinLLaVA se destaca na compreensão de tabelas e gráficos em 4 tarefas multimodais. Além disso, o FinLLaMA alcança índices Sharpe impressionantes em simulações de negociação, destacando suas robustas capacidades de aplicação financeira. Continuaremos a manter e aprimorar nossos modelos e benchmarks para apoiar a inovação contínua na academia e na indústria.
English
Large language models (LLMs) have advanced financial applications, yet they often lack sufficient financial knowledge and struggle with tasks involving multi-modal inputs like tables and time series data. To address these limitations, we introduce Open-FinLLMs, a series of Financial LLMs. We begin with FinLLaMA, pre-trained on a 52 billion token financial corpus, incorporating text, tables, and time-series data to embed comprehensive financial knowledge. FinLLaMA is then instruction fine-tuned with 573K financial instructions, resulting in FinLLaMA-instruct, which enhances task performance. Finally, we present FinLLaVA, a multimodal LLM trained with 1.43M image-text instructions to handle complex financial data types. Extensive evaluations demonstrate FinLLaMA's superior performance over LLaMA3-8B, LLaMA3.1-8B, and BloombergGPT in both zero-shot and few-shot settings across 19 and 4 datasets, respectively. FinLLaMA-instruct outperforms GPT-4 and other Financial LLMs on 15 datasets. FinLLaVA excels in understanding tables and charts across 4 multimodal tasks. Additionally, FinLLaMA achieves impressive Sharpe Ratios in trading simulations, highlighting its robust financial application capabilities. We will continually maintain and improve our models and benchmarks to support ongoing innovation in academia and industry.

Summary

AI-Generated Summary

PDF603November 16, 2024