ChatPaper.aiChatPaper

ЛЛМ не мыслят шаг за шагом в неявном рассуждении.

LLMs Do Not Think Step-by-step In Implicit Reasoning

November 24, 2024
Авторы: Yijiong Yu
cs.AI

Аннотация

Хорошо известно, что цепочка мыслей может значительно улучшить производительность LLM на сложных задачах. Однако, поскольку это также приводит к медленным скоростям вывода и более высоким вычислительным затратам, многие исследователи пытались использовать неявную цепочку мыслей, которая не требует от LLM явного создания промежуточных шагов. Однако все еще существует разрыв между их эффективностью и типичными методами явной цепочки мыслей. Это заставляет нас сомневаться, действительно ли неявная цепочка мыслей равносильна явной цепочке мыслей? Поэтому в данном исследовании мы рассматриваем этот вопрос с помощью экспериментов. Мы исследуем информацию о промежуточных шагах из скрытых состояний модели во время выполнения неявной цепочки мыслей. Результаты удивительно показывают, что LLM почти не задумывается о промежуточных шагах, что указывает на то, что они могут просто полагаться на опыт, а не на строгое пошаговое рассуждение. Более того, мы обнаруживаем, что неявные способности рассуждения LLM подвержены воздействию и нестабильны, подтверждая необходимость явной цепочки мыслей для эффективной поддержки сложных задач.
English
It has been well-known that Chain-of-Thought can remarkably enhance LLMs' performance on complex tasks. However, because it also introduces slower inference speeds and higher computational costs, many researches have attempted to use implicit CoT, which does not need LLMs to explicitly generate the intermediate steps. But there is still gap between their efficacy and typical explicit CoT methods. This leaves us a doubt that, does implicit CoT really equal to explicit CoT? Therefore, in this study, we address this question through experiments. We probe the information of intermediate steps from the model's hidden states when it is performing implicit CoT. The results surprisingly indicate that LLMs hardly think about intermediate steps, suggesting they may just rely on experience rather than strict step-by-step reasoning. Moreover, we find LLMs' implicit reasoning capabilities are susceptible and unstable, reaffirming the necessity of explicit CoT to effectively support complex tasks.

Summary

AI-Generated Summary

PDF102November 26, 2024