ChatPaper.aiChatPaper

DSPy: Компиляция декларативных вызовов языковых моделей в самообучающиеся конвейеры

DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines

October 5, 2023
Авторы: Omar Khattab, Arnav Singhvi, Paridhi Maheshwari, Zhiyuan Zhang, Keshav Santhanam, Sri Vardhamanan, Saiful Haq, Ashutosh Sharma, Thomas T. Joshi, Hanna Moazam, Heather Miller, Matei Zaharia, Christopher Potts
cs.AI

Аннотация

Сообщество машинного обучения активно исследует методы создания промптов для языковых моделей (LM) и их объединения в конвейеры для решения сложных задач. К сожалению, существующие конвейеры LM обычно реализуются с использованием жестко заданных "шаблонов промптов" — длинных строк, найденных методом проб и ошибок. В стремлении к более систематическому подходу к разработке и оптимизации конвейеров LM мы представляем DSPy — модель программирования, которая абстрагирует конвейеры LM как графы текстовых преобразований, то есть императивные вычислительные графы, где LM вызываются через декларативные модули. Модули DSPy параметризованы, что позволяет им обучаться (путем создания и сбора демонстраций) применению композиций методов промптинга, тонкой настройки, аугментации и логического рассуждения. Мы разработали компилятор, который оптимизирует любой конвейер DSPy для максимизации заданной метрики. Мы провели два кейс-стади, показав, что лаконичные программы на DSPy могут выражать и оптимизировать сложные конвейеры LM, которые решают математические задачи, выполняют многошаговый поиск, отвечают на сложные вопросы и управляют циклами агентов. В течение нескольких минут компиляции несколько строк кода на DSPy позволяют GPT-3.5 и llama2-13b-chat самостоятельно создавать конвейеры, которые превосходят стандартный подход с использованием нескольких примеров (обычно на более чем 25% и 65% соответственно) и конвейеры с демонстрациями, созданными экспертами (на 5-46% и 16-40% соответственно). Более того, программы DSPy, скомпилированные для открытых и относительно небольших LM, таких как T5 с 770 миллионами параметров и llama2-13b-chat, конкурируют с подходами, основанными на цепочках промптов, написанных экспертами для проприетарной GPT-3.5. DSPy доступен по адресу https://github.com/stanfordnlp/dspy.
English
The ML community is rapidly exploring techniques for prompting language models (LMs) and for stacking them into pipelines that solve complex tasks. Unfortunately, existing LM pipelines are typically implemented using hard-coded "prompt templates", i.e. lengthy strings discovered via trial and error. Toward a more systematic approach for developing and optimizing LM pipelines, we introduce DSPy, a programming model that abstracts LM pipelines as text transformation graphs, i.e. imperative computational graphs where LMs are invoked through declarative modules. DSPy modules are parameterized, meaning they can learn (by creating and collecting demonstrations) how to apply compositions of prompting, finetuning, augmentation, and reasoning techniques. We design a compiler that will optimize any DSPy pipeline to maximize a given metric. We conduct two case studies, showing that succinct DSPy programs can express and optimize sophisticated LM pipelines that reason about math word problems, tackle multi-hop retrieval, answer complex questions, and control agent loops. Within minutes of compiling, a few lines of DSPy allow GPT-3.5 and llama2-13b-chat to self-bootstrap pipelines that outperform standard few-shot prompting (generally by over 25% and 65%, respectively) and pipelines with expert-created demonstrations (by up to 5-46% and 16-40%, respectively). On top of that, DSPy programs compiled to open and relatively small LMs like 770M-parameter T5 and llama2-13b-chat are competitive with approaches that rely on expert-written prompt chains for proprietary GPT-3.5. DSPy is available at https://github.com/stanfordnlp/dspy
PDF352December 15, 2024