ChatPaper.aiChatPaper

DSPy : Compilation d'appels de modèles de langage déclaratifs en pipelines auto-améliorants

DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines

October 5, 2023
papers.authors: Omar Khattab, Arnav Singhvi, Paridhi Maheshwari, Zhiyuan Zhang, Keshav Santhanam, Sri Vardhamanan, Saiful Haq, Ashutosh Sharma, Thomas T. Joshi, Hanna Moazam, Heather Miller, Matei Zaharia, Christopher Potts
cs.AI

papers.abstract

La communauté du machine learning explore rapidement des techniques pour inciter les modèles de langage (LMs) et les intégrer dans des pipelines pour résoudre des tâches complexes. Malheureusement, les pipelines de LMs existants sont généralement implémentés à l'aide de "modèles de prompts" codés en dur, c'est-à-dire des chaînes de caractères longues découvertes par essais et erreurs. Pour une approche plus systématique de développement et d'optimisation des pipelines de LMs, nous introduisons DSPy, un modèle de programmation qui abstrait les pipelines de LMs en tant que graphes de transformation de texte, c'est-à-dire des graphes de calcul impératifs où les LMs sont invoqués via des modules déclaratifs. Les modules DSPy sont paramétrables, ce qui signifie qu'ils peuvent apprendre (en créant et en collectant des démonstrations) comment appliquer des compositions de techniques de prompting, de fine-tuning, d'augmentation et de raisonnement. Nous concevons un compilateur qui optimisera tout pipeline DSPy pour maximiser une métrique donnée. Nous menons deux études de cas, montrant que des programmes DSPy succincts peuvent exprimer et optimiser des pipelines de LMs sophistiqués qui raisonnent sur des problèmes de mots mathématiques, abordent la recherche multi-sauts, répondent à des questions complexes et contrôlent des boucles d'agents. En quelques minutes de compilation, quelques lignes de DSPy permettent à GPT-3.5 et llama2-13b-chat de créer des pipelines qui surpassent le prompting standard en few-shot (généralement de plus de 25% et 65%, respectivement) et les pipelines avec des démonstrations créées par des experts (jusqu'à 5-46% et 16-40%, respectivement). De plus, les programmes DSPy compilés pour des LMs ouverts et relativement petits comme T5 avec 770 millions de paramètres et llama2-13b-chat sont compétitifs avec les approches qui reposent sur des chaînes de prompts écrites par des experts pour GPT-3.5 propriétaire. DSPy est disponible à l'adresse https://github.com/stanfordnlp/dspy.
English
The ML community is rapidly exploring techniques for prompting language models (LMs) and for stacking them into pipelines that solve complex tasks. Unfortunately, existing LM pipelines are typically implemented using hard-coded "prompt templates", i.e. lengthy strings discovered via trial and error. Toward a more systematic approach for developing and optimizing LM pipelines, we introduce DSPy, a programming model that abstracts LM pipelines as text transformation graphs, i.e. imperative computational graphs where LMs are invoked through declarative modules. DSPy modules are parameterized, meaning they can learn (by creating and collecting demonstrations) how to apply compositions of prompting, finetuning, augmentation, and reasoning techniques. We design a compiler that will optimize any DSPy pipeline to maximize a given metric. We conduct two case studies, showing that succinct DSPy programs can express and optimize sophisticated LM pipelines that reason about math word problems, tackle multi-hop retrieval, answer complex questions, and control agent loops. Within minutes of compiling, a few lines of DSPy allow GPT-3.5 and llama2-13b-chat to self-bootstrap pipelines that outperform standard few-shot prompting (generally by over 25% and 65%, respectively) and pipelines with expert-created demonstrations (by up to 5-46% and 16-40%, respectively). On top of that, DSPy programs compiled to open and relatively small LMs like 770M-parameter T5 and llama2-13b-chat are competitive with approaches that rely on expert-written prompt chains for proprietary GPT-3.5. DSPy is available at https://github.com/stanfordnlp/dspy
PDF352December 15, 2024