ChatPaper.aiChatPaper

Крупные языковые модели как средства аналогического рассуждения

Large Language Models as Analogical Reasoners

October 3, 2023
Авторы: Michihiro Yasunaga, Xinyun Chen, Yujia Li, Panupong Pasupat, Jure Leskovec, Percy Liang, Ed H. Chi, Denny Zhou
cs.AI

Аннотация

Метод Chain-of-Thought (CoT) для языковых моделей демонстрирует впечатляющие результаты в задачах, требующих рассуждений, но обычно требует наличия размеченных примеров процесса рассуждений. В данной работе мы представляем новый подход к промптингу — Analogical Prompting, который предназначен для автоматического управления процессом рассуждений крупных языковых моделей. Вдохновленный аналогическим рассуждением — когнитивным процессом, в котором люди используют релевантный прошлый опыт для решения новых задач, наш подход побуждает языковые модели самостоятельно генерировать релевантные примеры или знания в контексте перед тем, как приступить к решению поставленной задачи. Этот метод имеет несколько преимуществ: он устраняет необходимость в размечении или извлечении примеров, обеспечивая универсальность и удобство; он также может адаптировать генерируемые примеры и знания к каждой конкретной задаче, обеспечивая гибкость. Экспериментальные результаты показывают, что наш подход превосходит 0-shot CoT и ручной few-shot CoT в различных задачах рассуждений, включая решение математических задач в GSM8K и MATH, генерацию кода в Codeforces и другие задачи рассуждений в BIG-Bench.
English
Chain-of-thought (CoT) prompting for language models demonstrates impressive performance across reasoning tasks, but typically needs labeled exemplars of the reasoning process. In this work, we introduce a new prompting approach, Analogical Prompting, designed to automatically guide the reasoning process of large language models. Inspired by analogical reasoning, a cognitive process in which humans draw from relevant past experiences to tackle new problems, our approach prompts language models to self-generate relevant exemplars or knowledge in the context, before proceeding to solve the given problem. This method presents several advantages: it obviates the need for labeling or retrieving exemplars, offering generality and convenience; it can also tailor the generated exemplars and knowledge to each problem, offering adaptability. Experimental results show that our approach outperforms 0-shot CoT and manual few-shot CoT in a variety of reasoning tasks, including math problem solving in GSM8K and MATH, code generation in Codeforces, and other reasoning tasks in BIG-Bench.
PDF161December 15, 2024