ChatPaper.aiChatPaper

Открытые мультимодальные крупномасштабные языковые модели Open-FinLLMs для финансовых приложений

Open-FinLLMs: Open Multimodal Large Language Models for Financial Applications

August 20, 2024
Авторы: Qianqian Xie, Dong Li, Mengxi Xiao, Zihao Jiang, Ruoyu Xiang, Xiao Zhang, Zhengyu Chen, Yueru He, Weiguang Han, Yuzhe Yang, Shunian Chen, Yifei Zhang, Lihang Shen, Daniel Kim, Zhiwei Liu, Zheheng Luo, Yangyang Yu, Yupeng Cao, Zhiyang Deng, Zhiyuan Yao, Haohang Li, Duanyu Feng, Yongfu Dai, VijayaSai Somasundaram, Peng Lu, Yilun Zhao, Yitao Long, Guojun Xiong, Kaleb Smith, Honghai Yu, Yanzhao Lai, Min Peng, Jianyun Nie, Jordan W. Suchow, Xiao-Yang Liu, Benyou Wang, Alejandro Lopez-Lira, Jimin Huang, Sophia Ananiadou
cs.AI

Аннотация

Большие языковые модели (LLM) нашли применение в финансовых приложениях, однако часто не обладают достаточными финансовыми знаниями и испытывают трудности с задачами, включающими мульти-модальные входные данные, такие как таблицы и временные ряды. Для преодоления этих ограничений мы представляем Open-FinLLM, серию финансовых LLM. Мы начинаем с FinLLaMA, предварительно обученной на 52 миллиардах токенов финансового корпуса, включающей текст, таблицы и временные ряды для внедрения всесторонних финансовых знаний. Затем FinLLaMA инструкционно донастраивается с использованием 573 тыс. финансовых инструкций, что приводит к FinLLaMA-instruct, улучшающей производительность задач. Наконец, мы представляем FinLLaVA, мульти-модальную LLM, обученную на 1,43 млн инструкций изображение-текст для работы с различными типами финансовых данных. Обширные оценки демонстрируют превосходную производительность FinLLaMA по сравнению с LLaMA3-8B, LLaMA3.1-8B и BloombergGPT как в нулевых, так и в ограниченных сеттингах на 19 и 4 наборах данных соответственно. FinLLaMA-instruct превосходит GPT-4 и другие финансовые LLM на 15 наборах данных. FinLLaVA отличается в понимании таблиц и графиков в рамках 4 мульти-модальных задач. Кроме того, FinLLaMA достигает впечатляющих коэффициентов Шарпа в торговых симуляциях, подчеркивая ее надежные финансовые возможности применения. Мы будем постоянно поддерживать и улучшать наши модели и бенчмарки для поддержки непрерывного инновационного процесса в академии и индустрии.
English
Large language models (LLMs) have advanced financial applications, yet they often lack sufficient financial knowledge and struggle with tasks involving multi-modal inputs like tables and time series data. To address these limitations, we introduce Open-FinLLMs, a series of Financial LLMs. We begin with FinLLaMA, pre-trained on a 52 billion token financial corpus, incorporating text, tables, and time-series data to embed comprehensive financial knowledge. FinLLaMA is then instruction fine-tuned with 573K financial instructions, resulting in FinLLaMA-instruct, which enhances task performance. Finally, we present FinLLaVA, a multimodal LLM trained with 1.43M image-text instructions to handle complex financial data types. Extensive evaluations demonstrate FinLLaMA's superior performance over LLaMA3-8B, LLaMA3.1-8B, and BloombergGPT in both zero-shot and few-shot settings across 19 and 4 datasets, respectively. FinLLaMA-instruct outperforms GPT-4 and other Financial LLMs on 15 datasets. FinLLaVA excels in understanding tables and charts across 4 multimodal tasks. Additionally, FinLLaMA achieves impressive Sharpe Ratios in trading simulations, highlighting its robust financial application capabilities. We will continually maintain and improve our models and benchmarks to support ongoing innovation in academia and industry.

Summary

AI-Generated Summary

PDF603November 16, 2024