Метод "Планирование и решение": Улучшение нулевого обучения с цепочкой рассуждений в крупных языковых моделях
Plan-and-Solve Prompting: Improving Zero-Shot Chain-of-Thought Reasoning by Large Language Models
May 6, 2023
Авторы: Lei Wang, Wanyu Xu, Yihuai Lan, Zhiqiang Hu, Yunshi Lan, Roy Ka-Wei Lee, Ee-Peng Lim
cs.AI
Аннотация
Крупные языковые модели (LLMs) недавно продемонстрировали впечатляющие результаты в различных задачах обработки естественного языка (NLP). Для решения задач, требующих многошагового рассуждения, метод few-shot chain-of-thought (CoT) включает несколько вручную созданных пошаговых демонстраций рассуждений, которые позволяют LLMs явно генерировать шаги рассуждений и повышать точность выполнения таких задач. Чтобы исключить ручной труд, Zero-shot-CoT объединяет формулировку целевой задачи с фразой "Давайте подумаем шаг за шагом" в качестве входного запроса для LLMs. Несмотря на успех Zero-shot-CoT, этот метод всё ещё страдает от трёх недостатков: ошибок в вычислениях, пропущенных шагов и семантических ошибок понимания. Для устранения пропущенных шагов мы предлагаем метод Plan-and-Solve (PS) Prompting. Он состоит из двух компонентов: сначала разработки плана, который делит всю задачу на более мелкие подзадачи, а затем выполнения этих подзадач в соответствии с планом. Для устранения ошибок в вычислениях и повышения качества генерируемых шагов рассуждений мы расширяем PS prompting более детальными инструкциями и получаем PS+ prompting. Мы оцениваем предложенную стратегию на десяти наборах данных, охватывающих три типа задач на рассуждение. Экспериментальные результаты на GPT-3 показывают, что наш метод zero-shot prompting значительно превосходит Zero-shot-CoT на всех наборах данных, сопоставим или превосходит Zero-shot-Program-of-Thought Prompting и демонстрирует сравнимую производительность с 8-shot CoT prompting в задачах на математическое рассуждение. Код доступен по адресу https://github.com/AGI-Edgerunners/Plan-and-Solve-Prompting.
English
Large language models (LLMs) have recently been shown to deliver impressive
performance in various NLP tasks. To tackle multi-step reasoning tasks,
few-shot chain-of-thought (CoT) prompting includes a few manually crafted
step-by-step reasoning demonstrations which enable LLMs to explicitly generate
reasoning steps and improve their reasoning task accuracy. To eliminate the
manual effort, Zero-shot-CoT concatenates the target problem statement with
"Let's think step by step" as an input prompt to LLMs. Despite the success of
Zero-shot-CoT, it still suffers from three pitfalls: calculation errors,
missing-step errors, and semantic misunderstanding errors. To address the
missing-step errors, we propose Plan-and-Solve (PS) Prompting. It consists of
two components: first, devising a plan to divide the entire task into smaller
subtasks, and then carrying out the subtasks according to the plan. To address
the calculation errors and improve the quality of generated reasoning steps, we
extend PS prompting with more detailed instructions and derive PS+ prompting.
We evaluate our proposed prompting strategy on ten datasets across three
reasoning problems. The experimental results over GPT-3 show that our proposed
zero-shot prompting consistently outperforms Zero-shot-CoT across all datasets
by a large margin, is comparable to or exceeds Zero-shot-Program-of-Thought
Prompting, and has comparable performance with 8-shot CoT prompting on the math
reasoning problem. The code can be found at
https://github.com/AGI-Edgerunners/Plan-and-Solve-Prompting.