ChatPaper.aiChatPaper

Бюджетно-ориентированное масштабирование на этапе тестирования с использованием дискриминативной верификации

Budget-aware Test-time Scaling via Discriminative Verification

October 16, 2025
Авторы: Kyle Montgomery, Sijun Tan, Yuqi Chen, Siyuan Zhuang, Tianjun Zhang, Raluca Ada Popa, Chenguang Wang
cs.AI

Аннотация

Масштабирование во время тестирования представляет собой мощную стратегию для повышения производительности крупных языковых моделей в задачах сложного логического рассуждения. Хотя современные подходы часто используют генеративные верификаторы для выбора наилучшего решения из пула кандидатов, этот метод связан с непомерными вычислительными затратами, что ограничивает его практическую применимость. В данной работе мы смещаем акцент на более экономически эффективную парадигму: дискриминативную верификацию. Мы проводим тщательный эмпирический анализ и показываем, что, хотя дискриминативные верификаторы могут уступать в изолированном использовании, их комбинация с самосогласованностью в гибридном подходе создает мощный и эффективный механизм масштабирования во время тестирования. Примечательно, что при фиксированном вычислительном бюджете этот гибридный подход значительно превосходит современные методы генеративной верификации: достигая до 15,3\% более высокой точности на AIME2025. Наши результаты подтверждают, что для практических приложений в реальном мире экономически эффективное масштабирование с использованием дискриминативных верификаторов не только представляет собой "бесплатное" улучшение по сравнению с самосогласованностью, но также является более эффективной и экономичной альтернативой дорогостоящим генеративным методам. Код доступен по адресу https://github.com/wang-research-lab/verification.
English
Test-time scaling is a powerful strategy for boosting the performance of large language models on complex reasoning tasks. While state-of-the-art approaches often employ generative verifiers to select the best solution from a pool of candidates, this method incurs prohibitive computational costs, limiting its practicality. In this work, we shift the focus to a more budget-aware paradigm: discriminative verification. We conduct a thorough empirical analysis and demonstrate that while discriminative verifiers may underperform in isolation, combining them with self-consistency in a hybrid approach creates a powerful and efficient test-time scaling mechanism. Notably, under a fixed compute budget, this hybrid approach surpasses state-of-the-art generative verification by a significant margin: achieving up to 15.3\% higher accuracy on AIME2025. Our findings establish that for practical, real-world applications, budget-aware scaling with discriminative verifiers is not only a "free" upgrade over self-consistency, but also a more effective and efficient alternative to costly generative techniques. Code is available at https://github.com/wang-research-lab/verification.
PDF42October 17, 2025