ChatPaper.aiChatPaper

Обрезка непредсказуемого: эффективное рассуждение о коде через удивление первого токена

Pruning the Unsurprising: Efficient Code Reasoning via First-Token Surprisal

August 8, 2025
Авторы: Wenhao Zeng, Yaoning Wang, Chao Hu, Yuling Shi, Chengcheng Wan, Hongyu Zhang, Xiaodong Gu
cs.AI

Аннотация

Недавно крупные модели рассуждений (LRMs) продемонстрировали впечатляющие способности в анализе кода за счет масштабирования длины цепочки рассуждений (Chain-of-Thought, CoT). Однако чрезмерно длинные траектории рассуждений создают значительные трудности с точки зрения затрат на обучение, задержки при выводе и практической реализации. Хотя для решения этой проблемы появились различные подходы к сжатию CoT, они сталкиваются с неизбежными компромиссами: методы на уровне токенов часто нарушают синтаксическую и логическую согласованность, а методы на уровне шагов, основанные на перплексии, не могут надежно выделить логически важные этапы рассуждений. В данной статье мы предлагаем ASAP (Anchor-guided, Surprisal-based Pruning), новый двухэтапный фреймворк для сжатия CoT. ASAP сначала выполняет якорно-ориентированное сокращение, чтобы сохранить основную структуру рассуждений, что эффективно уменьшает пространство поиска для последующей обработки. Затем он обеспечивает логически осознанное сокращение, выбирая логически важные этапы рассуждений на основе новой метрики удивления первого токена. Наконец, ASAP обучает модели автономно генерировать и использовать эти сжатые CoT во время вывода, что позволяет эффективно выполнять рассуждения в задачах программирования. Эксперименты показывают, что ASAP достигает наивысшей точности на нескольких бенчмарках генерации кода, значительно снижая затраты на обучение и вывод. На сложном бенчмарке LiveCodeBench v4_v5 наш подход сокращает генерацию токенов на 23,5% и задержку вывода на 43,5% по сравнению с самым сильным базовым методом, при этом достигая конкурентоспособной точности 36,19% в метрике Pass@1. Наши результаты указывают на перспективное направление для создания мощных и эффективных LRMs.
English
Recently, Large Reasoning Models (LRMs) have demonstrated remarkable capabilities in code reasoning by scaling up the length of Chain-of-Thought (CoT). However, excessively long reasoning traces introduce substantial challenges in terms of training cost, inference latency, and deployment feasibility. While various CoT compression approaches have emerged to address this challenge, they face inherent trade-offs: token-level methods often disrupt syntactic and logical coherence, while step-level methods based on perplexity fail to reliably capture the logically critical reasoning steps. In this paper, we propose ASAP (Anchor-guided, Surprisal-based Pruning), a novel coarse-to-fine framework for CoT compression. ASAP first performs anchor-guided pruning to preserve the core reasoning structure, which efficiently reduces the search space for subsequent processing. It then enables a logic-aware pruning by selecting logically essential reasoning steps based on a novel first-token surprisal metric. Finally, ASAP teaches models to autonomously generate and leverage these concise CoTs at inference time, enabling efficient reasoning in coding tasks. Experiments show that ASAP achieves state-of-the-art accuracy across multiple code generation benchmarks while substantially reducing training and inference costs. On the challenging LiveCodeBench v4_v5 benchmark, our approach reduces token generation by 23.5% and inference latency by 43.5% compared to the strongest baseline, while achieving a competitive accuracy of 36.19% in Pass@1. Our results highlight a promising direction for building powerful and efficient LRMs.
PDF183August 11, 2025