ChatPaper.aiChatPaper

Пересмотр масштабируемости моделей типа o1 на этапе тестирования: действительно ли они обладают способностью к масштабированию во время тестирования?

Revisiting the Test-Time Scaling of o1-like Models: Do they Truly Possess Test-Time Scaling Capabilities?

February 17, 2025
Авторы: Zhiyuan Zeng, Qinyuan Cheng, Zhangyue Yin, Yunhua Zhou, Xipeng Qiu
cs.AI

Аннотация

Появление масштабирования во время тестирования в больших языковых моделях (LLM), примером которого является серия o1 от OpenAI, продвинуло способности к рассуждению за счет масштабирования выделения вычислительных ресурсов во время вывода. Хотя последователи, такие как QwQ, Deepseek-R1 (R1) и LIMO, повторяют эти достижения, вопрос о том, действительно ли эти модели обладают возможностями масштабирования во время тестирования, остается недостаточно изученным. Это исследование показало, что более длинные цепочки рассуждений (CoT) этих моделей, подобных o1, не всегда повышают точность; на самом деле, правильные решения часто оказываются короче неправильных для одних и тех же вопросов. Дальнейшее исследование показывает, что это явление тесно связано со способностью моделей к самокоррекции — более длинные CoT содержат больше самокоррекций, что часто приводит к ухудшению производительности. Затем мы сравниваем последовательные и параллельные стратегии масштабирования на QwQ, R1 и LIMO, обнаруживая, что параллельное масштабирование обеспечивает лучшее покрытие и масштабируемость. На основе этих наблюдений мы предлагаем метод "Кратчайшего большинства голосов", который сочетает параллельные стратегии масштабирования с характеристиками длины CoT, значительно улучшая масштабируемость моделей во время тестирования по сравнению с традиционными подходами голосования большинством.
English
The advent of test-time scaling in large language models (LLMs), exemplified by OpenAI's o1 series, has advanced reasoning capabilities by scaling computational resource allocation during inference. While successors like QwQ, Deepseek-R1 (R1) and LIMO replicate these advancements, whether these models truly possess test-time scaling capabilities remains underexplored. This study found that longer CoTs of these o1-like models do not consistently enhance accuracy; in fact, correct solutions are often shorter than incorrect ones for the same questions. Further investigation shows this phenomenon is closely related to models' self-revision capabilities - longer CoTs contain more self-revisions, which often lead to performance degradation. We then compare sequential and parallel scaling strategies on QwQ, R1 and LIMO, finding that parallel scaling achieves better coverage and scalability. Based on these insights, we propose Shortest Majority Vote, a method that combines parallel scaling strategies with CoT length characteristics, significantly improving models' test-time scalability compared to conventional majority voting approaches.

Summary

AI-Generated Summary

PDF162February 19, 2025