ChatPaper.aiChatPaper

DeepPrune: Параллельное масштабирование без избыточности между трассировками

DeepPrune: Parallel Scaling without Inter-trace Redundancy

October 9, 2025
Авторы: Shangqing Tu, Yaxuan Li, Yushi Bai, Lei Hou, Juanzi Li
cs.AI

Аннотация

Параллельное масштабирование стало мощной парадигмой для улучшения способностей к рассуждению в больших языковых моделях (LLM) за счет одновременной генерации множества цепочек рассуждений (Chain-of-Thought, CoT). Однако этот подход влечет за собой значительную вычислительную неэффективность из-за избыточности между цепочками — наш анализ показывает, что более 80% параллельных цепочек рассуждений приводят к одинаковым конечным ответам, что представляет собой существенные потери вычислений. Для решения этой критической проблемы эффективности мы предлагаем DeepPrune, новую структуру, которая обеспечивает эффективное параллельное масштабирование за счет динамического сокращения. Наш метод включает специализированную модель-судию, обученную с использованием фокальной потери и техник передискретизации для точного предсказания эквивалентности ответов на основе частичных цепочек рассуждений, что достигает значения 0.87 AUROC в предсказании эквивалентности, а также жадный алгоритм кластеризации в реальном времени, который динамически сокращает избыточные пути, сохраняя при этом разнообразие ответов. Комплексные оценки на трех сложных тестовых наборах (AIME 2024, AIME 2025 и GPQA) и нескольких моделях рассуждений демонстрируют, что DeepPrune достигает значительного сокращения количества токенов более чем на 80% по сравнению с традиционным консенсусным сэмплированием в большинстве случаев, сохраняя при этом конкурентоспособную точность в пределах 3 процентных пунктов. Наша работа устанавливает новый стандарт для эффективного параллельного рассуждения, делая высокопроизводительные рассуждения более эффективными. Наш код и данные доступны по ссылке: https://deepprune.github.io/
English
Parallel scaling has emerged as a powerful paradigm to enhance reasoning capabilities in large language models (LLMs) by generating multiple Chain-of-Thought (CoT) traces simultaneously. However, this approach introduces significant computational inefficiency due to inter-trace redundancy -- our analysis reveals that over 80% of parallel reasoning traces yield identical final answers, representing substantial wasted computation. To address this critical efficiency bottleneck, we propose DeepPrune, a novel framework that enables efficient parallel scaling through dynamic pruning. Our method features a specialized judge model trained with focal loss and oversampling techniques to accurately predict answer equivalence from partial reasoning traces which realizes 0.87 AUROC on equivalence prediction, combined with an online greedy clustering algorithm that dynamically prunes redundant paths while preserving answer diversity. Comprehensive evaluations across three challenging benchmarks (AIME 2024, AIME 2025, and GPQA) and multiple reasoning models demonstrate that DeepPrune achieves remarkable token reduction by over 80% compared to conventional consensus sampling on most cases, while maintaining competitive accuracy within 3 percentage points. Our work establishes a new standard for efficient parallel reasoning, making high-performance reasoning more efficient. Our code and data are here: https://deepprune.github.io/
PDF222October 10, 2025