ChatPaper.aiChatPaper

Raciocínio Implícito em Transformadores é Raciocínio por Meio de Atalhos

Implicit Reasoning in Transformers is Reasoning through Shortcuts

March 10, 2025
Autores: Tianhe Lin, Jian Xie, Siyu Yuan, Deqing Yang
cs.AI

Resumo

O uso de computação durante o teste está surgindo como um novo paradigma para aprimorar as capacidades de raciocínio multi-etapas complexas dos modelos de linguagem, como demonstrado pelo sucesso do o1 e o3 da OpenAI, bem como do R1 da DeepSeek. Em comparação com o raciocínio explícito durante a computação no teste, o raciocínio implícito é mais eficiente em termos de inferência, exigindo menos tokens gerados. No entanto, por que a capacidade avançada de raciocínio não emerge no estilo de raciocínio implícito? Neste trabalho, treinamos o GPT-2 do zero em um conjunto de dados curado de raciocínio matemático multi-etapas e realizamos experimentos analíticos para investigar como os modelos de linguagem realizam raciocínio implícito em tarefas multi-etapas. Nossas descobertas revelam: 1) Os modelos de linguagem podem realizar raciocínio passo a passo e alcançar alta precisão tanto em testes dentro do domínio quanto fora dele por meio de raciocínio implícito. No entanto, essa capacidade só emerge quando treinada em dados de padrão fixo. 2) Por outro lado, as habilidades de raciocínio implícito que emergem do treinamento em dados de padrão não fixo tendem a se ajustar excessivamente a um padrão específico e falham em generalizar. Notavelmente, essa limitação também é observada em modelos de linguagem grandes de última geração. Essas descobertas sugerem que os modelos de linguagem adquirem raciocínio implícito por meio de aprendizado por atalhos, permitindo um desempenho forte em tarefas com padrões semelhantes, mas carecendo de generalização.
English
Test-time compute is emerging as a new paradigm for enhancing language models' complex multi-step reasoning capabilities, as demonstrated by the success of OpenAI's o1 and o3, as well as DeepSeek's R1. Compared to explicit reasoning in test-time compute, implicit reasoning is more inference-efficient, requiring fewer generated tokens. However, why does the advanced reasoning capability fail to emerge in the implicit reasoning style? In this work, we train GPT-2 from scratch on a curated multi-step mathematical reasoning dataset and conduct analytical experiments to investigate how language models perform implicit reasoning in multi-step tasks. Our findings reveal: 1) Language models can perform step-by-step reasoning and achieve high accuracy in both in-domain and out-of-domain tests via implicit reasoning. However, this capability only emerges when trained on fixed-pattern data. 2) Conversely, implicit reasoning abilities emerging from training on unfixed-pattern data tend to overfit a specific pattern and fail to generalize further. Notably, this limitation is also observed in state-of-the-art large language models. These findings suggest that language models acquire implicit reasoning through shortcut learning, enabling strong performance on tasks with similar patterns while lacking generalization.

Summary

AI-Generated Summary

PDF222March 12, 2025