ChatPaper.aiChatPaper

Обратно-спроектированное рассуждение для генерации с открытым концом

Reverse-Engineered Reasoning for Open-Ended Generation

September 7, 2025
Авторы: Haozhe Wang, Haoran Que, Qixin Xu, Minghao Liu, Wangchunshu Zhou, Jiazhan Feng, Wanjun Zhong, Wei Ye, Tong Yang, Wenhao Huang, Ge Zhang, Fangzhen Lin
cs.AI

Аннотация

Хотя парадигма «глубокого рассуждения» стимулировала значительные успехи в верифицируемых областях, таких как математика, её применение к открытым, творческим задачам генерации остаётся серьёзным вызовом. Два доминирующих метода для внедрения рассуждений — обучение с подкреплением (RL) и дистилляция инструкций — сталкиваются с трудностями в этой области: RL борется с отсутствием чётких сигналов вознаграждения и качественных моделей вознаграждения, а дистилляция оказывается чрезмерно затратной и ограниченной возможностями модели-учителя. Чтобы преодолеть эти ограничения, мы представляем REER (REverse-Engineered Reasoning) — новую парадигму, которая принципиально меняет подход. Вместо построения процесса рассуждения «вперёд» через метод проб и ошибок или имитацию, REER работает «назад», начиная с известных хороших решений, чтобы вычислительно обнаружить скрытый, пошаговый процесс глубокого рассуждения, который мог бы их породить. Используя этот масштабируемый, градиентно-независимый подход, мы создаём и открываем DeepWriting-20K — крупномасштабный набор данных, содержащий 20 000 траекторий глубокого рассуждения для открытых задач. Наша модель DeepWriter-8B, обученная на этих данных, не только превосходит сильные открытые базовые модели, но и демонстрирует результаты, конкурентоспособные, а иногда и превосходящие ведущие проприетарные модели, такие как GPT-4o и Claude 3.5.
English
While the ``deep reasoning'' paradigm has spurred significant advances in verifiable domains like mathematics, its application to open-ended, creative generation remains a critical challenge. The two dominant methods for instilling reasoning -- reinforcement learning (RL) and instruction distillation -- falter in this area; RL struggles with the absence of clear reward signals and high-quality reward models, while distillation is prohibitively expensive and capped by the teacher model's capabilities. To overcome these limitations, we introduce REverse-Engineered Reasoning (REER), a new paradigm that fundamentally shifts the approach. Instead of building a reasoning process ``forwards'' through trial-and-error or imitation, REER works ``backwards'' from known-good solutions to computationally discover the latent, step-by-step deep reasoning process that could have produced them. Using this scalable, gradient-free approach, we curate and open-source DeepWriting-20K, a large-scale dataset of 20,000 deep reasoning trajectories for open-ended tasks. Our model, DeepWriter-8B, trained on this data, not only surpasses strong open-source baselines but also achieves performance competitive with, and at times superior to, leading proprietary models like GPT-4o and Claude 3.5.
PDF1385September 9, 2025