Цепочка рассуждений без явного задания
Chain-of-Thought Reasoning Without Prompting
February 15, 2024
Авторы: Xuezhi Wang, Denny Zhou
cs.AI
Аннотация
В улучшении способностей к рассуждению у крупных языковых моделей (LLMs) предыдущие исследования в основном сосредоточены на специфических методах подсказок, таких как few-shot или zero-shot chain-of-thought (CoT) подсказки. Эти методы, хотя и эффективны, часто требуют трудоемкого ручного проектирования подсказок. Наше исследование предлагает новый подход, задавая вопрос: Могут ли LLMs рассуждать эффективно без подсказок? Наши результаты показывают, что, что интересно, пути рассуждения CoT могут быть вызваны у предварительно обученных LLMs просто путем изменения процесса декодирования. Вместо традиционного жадного декодирования мы исследуем топ-k альтернативных токенов, обнаруживая, что пути CoT часто присущи этим последовательностям. Этот подход не только позволяет избежать влияния подсказок, но и дает возможность оценить внутренние способности LLMs к рассуждению. Более того, мы наблюдаем, что наличие CoT в пути декодирования коррелирует с более высокой уверенностью модели в декодированном ответе. Этот показатель уверенности эффективно различает пути с CoT и без CoT. Обширные эмпирические исследования на различных тестах рассуждения показывают, что предложенное CoT-декодирование существенно превосходит стандартное жадное декодирование.
English
In enhancing the reasoning capabilities of large language models (LLMs),
prior research primarily focuses on specific prompting techniques such as
few-shot or zero-shot chain-of-thought (CoT) prompting. These methods, while
effective, often involve manually intensive prompt engineering. Our study takes
a novel approach by asking: Can LLMs reason effectively without prompting? Our
findings reveal that, intriguingly, CoT reasoning paths can be elicited from
pre-trained LLMs by simply altering the decoding process. Rather than
conventional greedy decoding, we investigate the top-k alternative tokens,
uncovering that CoT paths are frequently inherent in these sequences. This
approach not only bypasses the confounders of prompting but also allows us to
assess the LLMs' intrinsic reasoning abilities. Moreover, we observe
that the presence of a CoT in the decoding path correlates with a higher
confidence in the model's decoded answer. This confidence metric effectively
differentiates between CoT and non-CoT paths. Extensive empirical studies on
various reasoning benchmarks show that the proposed CoT-decoding substantially
outperforms the standard greedy decoding.