FrugalGPT : Comment utiliser les grands modèles de langage tout en réduisant les coûts et en améliorant les performances
FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance
May 9, 2023
Auteurs: Lingjiao Chen, Matei Zaharia, James Zou
cs.AI
Résumé
Le nombre de grands modèles de langage (LLM) accessibles aux utilisateurs contre rémunération connaît une croissance rapide. Nous examinons les coûts associés à l'interrogation des API de LLM populaires, tels que GPT-4, ChatGPT et J1-Jumbo, et constatons que ces modèles présentent des structures tarifaires hétérogènes, avec des frais pouvant varier de deux ordres de grandeur. En particulier, l'utilisation de LLM sur de vastes collections de requêtes et de textes peut s'avérer coûteuse. Motivés par cette observation, nous décrivons et discutons trois types de stratégies que les utilisateurs peuvent exploiter pour réduire les coûts d'inférence liés à l'utilisation des LLM : 1) l'adaptation des prompts, 2) l'approximation des LLM, et 3) la cascade de LLM. À titre d'exemple, nous proposons FrugalGPT, une instanciation simple mais flexible de la cascade de LLM, qui apprend à déterminer quelles combinaisons de LLM utiliser pour différentes requêtes afin de réduire les coûts et d'améliorer la précision. Nos expériences montrent que FrugalGPT peut égaler les performances du meilleur LLM individuel (par exemple, GPT-4) avec une réduction des coûts allant jusqu'à 98 %, ou améliorer la précision par rapport à GPT-4 de 4 % pour un coût équivalent. Les idées et les résultats présentés ici jettent les bases d'une utilisation durable et efficace des LLM.
English
There is a rapidly growing number of large language models (LLMs) that users
can query for a fee. We review the cost associated with querying popular LLM
APIs, e.g. GPT-4, ChatGPT, J1-Jumbo, and find that these models have
heterogeneous pricing structures, with fees that can differ by two orders of
magnitude. In particular, using LLMs on large collections of queries and text
can be expensive. Motivated by this, we outline and discuss three types of
strategies that users can exploit to reduce the inference cost associated with
using LLMs: 1) prompt adaptation, 2) LLM approximation, and 3) LLM cascade. As
an example, we propose FrugalGPT, a simple yet flexible instantiation of LLM
cascade which learns which combinations of LLMs to use for different queries in
order to reduce cost and improve accuracy. Our experiments show that FrugalGPT
can match the performance of the best individual LLM (e.g. GPT-4) with up to
98% cost reduction or improve the accuracy over GPT-4 by 4% with the same cost.
The ideas and findings presented here lay a foundation for using LLMs
sustainably and efficiently.