DSPy: Compilando Chamadas de Modelos de Linguagem Declarativos em Pipelines de Autoaprimoramento
DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines
October 5, 2023
Autores: Omar Khattab, Arnav Singhvi, Paridhi Maheshwari, Zhiyuan Zhang, Keshav Santhanam, Sri Vardhamanan, Saiful Haq, Ashutosh Sharma, Thomas T. Joshi, Hanna Moazam, Heather Miller, Matei Zaharia, Christopher Potts
cs.AI
Resumo
A comunidade de aprendizado de máquina (ML) está rapidamente explorando técnicas para "prompting" de modelos de linguagem (LMs) e para organizá-los em pipelines que resolvam tarefas complexas. Infelizmente, os pipelines de LMs existentes são tipicamente implementados usando "templates de prompts" codificados de forma rígida, ou seja, strings extensas descobertas por tentativa e erro. Visando uma abordagem mais sistemática para desenvolver e otimizar pipelines de LMs, introduzimos o DSPy, um modelo de programação que abstrai pipelines de LMs como grafos de transformação de texto, ou seja, grafos computacionais imperativos onde os LMs são invocados por meio de módulos declarativos. Os módulos do DSPy são parametrizados, o que significa que podem aprender (criando e coletando demonstrações) como aplicar composições de técnicas de prompting, ajuste fino, aumento de dados e raciocínio. Projetamos um compilador que otimiza qualquer pipeline DSPy para maximizar uma métrica específica. Realizamos dois estudos de caso, mostrando que programas DSPy sucintos podem expressar e otimizar pipelines de LMs sofisticados que raciocinam sobre problemas de matemática, lidam com recuperação multi-hop, respondem a perguntas complexas e controlam loops de agentes. Em minutos de compilação, algumas linhas de DSPy permitem que GPT-3.5 e llama2-13b-chat auto-inicializem pipelines que superam o prompting padrão de poucos exemplos (geralmente em mais de 25% e 65%, respectivamente) e pipelines com demonstrações criadas por especialistas (em até 5-46% e 16-40%, respectivamente). Além disso, programas DSPy compilados para LMs abertos e relativamente pequenos, como o T5 com 770 milhões de parâmetros e o llama2-13b-chat, são competitivos com abordagens que dependem de cadeias de prompts escritas por especialistas para o GPT-3.5 proprietário. O DSPy está disponível em https://github.com/stanfordnlp/dspy.
English
The ML community is rapidly exploring techniques for prompting language
models (LMs) and for stacking them into pipelines that solve complex tasks.
Unfortunately, existing LM pipelines are typically implemented using hard-coded
"prompt templates", i.e. lengthy strings discovered via trial and error. Toward
a more systematic approach for developing and optimizing LM pipelines, we
introduce DSPy, a programming model that abstracts LM pipelines as text
transformation graphs, i.e. imperative computational graphs where LMs are
invoked through declarative modules. DSPy modules are parameterized, meaning
they can learn (by creating and collecting demonstrations) how to apply
compositions of prompting, finetuning, augmentation, and reasoning techniques.
We design a compiler that will optimize any DSPy pipeline to maximize a given
metric. We conduct two case studies, showing that succinct DSPy programs can
express and optimize sophisticated LM pipelines that reason about math word
problems, tackle multi-hop retrieval, answer complex questions, and control
agent loops. Within minutes of compiling, a few lines of DSPy allow GPT-3.5 and
llama2-13b-chat to self-bootstrap pipelines that outperform standard few-shot
prompting (generally by over 25% and 65%, respectively) and pipelines with
expert-created demonstrations (by up to 5-46% and 16-40%, respectively). On top
of that, DSPy programs compiled to open and relatively small LMs like
770M-parameter T5 and llama2-13b-chat are competitive with approaches that rely
on expert-written prompt chains for proprietary GPT-3.5. DSPy is available at
https://github.com/stanfordnlp/dspy