ChatPaper.aiChatPaper

FrugalGPT : Comment utiliser les grands modèles de langage tout en réduisant les coûts et en améliorant les performances

FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance

May 9, 2023
Auteurs: Lingjiao Chen, Matei Zaharia, James Zou
cs.AI

Résumé

Le nombre de grands modèles de langage (LLM) accessibles aux utilisateurs contre rémunération connaît une croissance rapide. Nous examinons les coûts associés à l'interrogation des API de LLM populaires, tels que GPT-4, ChatGPT et J1-Jumbo, et constatons que ces modèles présentent des structures tarifaires hétérogènes, avec des frais pouvant varier de deux ordres de grandeur. En particulier, l'utilisation de LLM sur de vastes collections de requêtes et de textes peut s'avérer coûteuse. Motivés par cette observation, nous décrivons et discutons trois types de stratégies que les utilisateurs peuvent exploiter pour réduire les coûts d'inférence liés à l'utilisation des LLM : 1) l'adaptation des prompts, 2) l'approximation des LLM, et 3) la cascade de LLM. À titre d'exemple, nous proposons FrugalGPT, une instanciation simple mais flexible de la cascade de LLM, qui apprend à déterminer quelles combinaisons de LLM utiliser pour différentes requêtes afin de réduire les coûts et d'améliorer la précision. Nos expériences montrent que FrugalGPT peut égaler les performances du meilleur LLM individuel (par exemple, GPT-4) avec une réduction des coûts allant jusqu'à 98 %, ou améliorer la précision par rapport à GPT-4 de 4 % pour un coût équivalent. Les idées et les résultats présentés ici jettent les bases d'une utilisation durable et efficace des LLM.
English
There is a rapidly growing number of large language models (LLMs) that users can query for a fee. We review the cost associated with querying popular LLM APIs, e.g. GPT-4, ChatGPT, J1-Jumbo, and find that these models have heterogeneous pricing structures, with fees that can differ by two orders of magnitude. In particular, using LLMs on large collections of queries and text can be expensive. Motivated by this, we outline and discuss three types of strategies that users can exploit to reduce the inference cost associated with using LLMs: 1) prompt adaptation, 2) LLM approximation, and 3) LLM cascade. As an example, we propose FrugalGPT, a simple yet flexible instantiation of LLM cascade which learns which combinations of LLMs to use for different queries in order to reduce cost and improve accuracy. Our experiments show that FrugalGPT can match the performance of the best individual LLM (e.g. GPT-4) with up to 98% cost reduction or improve the accuracy over GPT-4 by 4% with the same cost. The ideas and findings presented here lay a foundation for using LLMs sustainably and efficiently.
PDF64December 15, 2024