ChatPaper.aiChatPaper

DSPy: Het Compileren van Declaratieve Taalmodelaanroepen naar Zelfverbeterende Pijplijnen

DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines

October 5, 2023
Auteurs: Omar Khattab, Arnav Singhvi, Paridhi Maheshwari, Zhiyuan Zhang, Keshav Santhanam, Sri Vardhamanan, Saiful Haq, Ashutosh Sharma, Thomas T. Joshi, Hanna Moazam, Heather Miller, Matei Zaharia, Christopher Potts
cs.AI

Samenvatting

De ML-gemeenschap onderzoekt in rap tempo technieken voor het aansturen van taalmodel(len) (LMs) en het stapelen ervan in pipelines die complexe taken oplossen. Helaas worden bestaande LM-pipelines doorgaans geïmplementeerd met behulp van vastgelegde "prompt-sjablonen", oftewel lange tekenreeksen die via trial-and-error zijn ontdekt. Om een meer systematische aanpak te bieden voor het ontwikkelen en optimaliseren van LM-pipelines, introduceren we DSPy, een programmeermodel dat LM-pipelines abstraheert als teksttransformatiegrafieken, d.w.z. imperatieve rekenkundige grafieken waarin LMs worden aangeroepen via declaratieve modules. DSPy-modules zijn geparametriseerd, wat betekent dat ze kunnen leren (door demonstraties te creëren en te verzamelen) hoe ze composities van prompting, finetuning, augmentatie en redeneertechnieken kunnen toepassen. We ontwerpen een compiler die elke DSPy-pipeline optimaliseert om een gegeven metriek te maximaliseren. We voeren twee casestudies uit, waaruit blijkt dat beknopte DSPy-programma's geavanceerde LM-pipelines kunnen uitdrukken en optimaliseren die redeneren over wiskundige woordproblemen, multi-hop retrieval aanpakken, complexe vragen beantwoorden en agentloops besturen. Binnen enkele minuten na het compileren maken een paar regels DSPy het mogelijk dat GPT-3.5 en llama2-13b-chat zelf pipelines bootstrappen die standaard few-shot prompting overtreffen (meestal met meer dan 25% en 65%, respectievelijk) en pipelines met door experts gemaakte demonstraties (met tot 5-46% en 16-40%, respectievelijk). Bovendien zijn DSPy-programma's die worden gecompileerd naar open en relatief kleine LMs zoals de 770M-parameter T5 en llama2-13b-chat concurrerend met benaderingen die vertrouwen op door experts geschreven promptketens voor propriëtaire GPT-3.5. DSPy is beschikbaar op https://github.com/stanfordnlp/dspy.
English
The ML community is rapidly exploring techniques for prompting language models (LMs) and for stacking them into pipelines that solve complex tasks. Unfortunately, existing LM pipelines are typically implemented using hard-coded "prompt templates", i.e. lengthy strings discovered via trial and error. Toward a more systematic approach for developing and optimizing LM pipelines, we introduce DSPy, a programming model that abstracts LM pipelines as text transformation graphs, i.e. imperative computational graphs where LMs are invoked through declarative modules. DSPy modules are parameterized, meaning they can learn (by creating and collecting demonstrations) how to apply compositions of prompting, finetuning, augmentation, and reasoning techniques. We design a compiler that will optimize any DSPy pipeline to maximize a given metric. We conduct two case studies, showing that succinct DSPy programs can express and optimize sophisticated LM pipelines that reason about math word problems, tackle multi-hop retrieval, answer complex questions, and control agent loops. Within minutes of compiling, a few lines of DSPy allow GPT-3.5 and llama2-13b-chat to self-bootstrap pipelines that outperform standard few-shot prompting (generally by over 25% and 65%, respectively) and pipelines with expert-created demonstrations (by up to 5-46% and 16-40%, respectively). On top of that, DSPy programs compiled to open and relatively small LMs like 770M-parameter T5 and llama2-13b-chat are competitive with approaches that rely on expert-written prompt chains for proprietary GPT-3.5. DSPy is available at https://github.com/stanfordnlp/dspy
PDF372February 8, 2026