ChatPaper.aiChatPaper

ThinkDial: Una receta abierta para controlar el esfuerzo de razonamiento en modelos de lenguaje a gran escala

ThinkDial: An Open Recipe for Controlling Reasoning Effort in Large Language Models

August 26, 2025
Autores: Qianyu He, Siyu Yuan, Xuefeng Li, Mingxuan Wang, Jiangjie Chen
cs.AI

Resumen

Los modelos de lenguaje de gran escala (LLMs) con razonamiento en cadena de pensamiento han demostrado capacidades notables para resolver problemas, pero controlar su esfuerzo computacional sigue siendo un desafío significativo para su implementación práctica. Sistemas propietarios recientes como la serie gpt-oss de OpenAI han introducido modos operativos discretos para un control intuitivo del razonamiento, pero la comunidad de código abierto no ha logrado alcanzar tales capacidades. En este artículo, presentamos ThinkDial, el primer marco de trabajo de extremo a extremo de receta abierta que implementa con éxito un razonamiento controlable al estilo gpt-oss mediante modos operativos discretos. Nuestro sistema permite cambiar sin problemas entre tres regímenes de razonamiento distintos: Modo Alto (capacidad de razonamiento completa), Modo Medio (reducción del 50 por ciento de tokens con una degradación del rendimiento menor al 10 por ciento) y Modo Bajo (reducción del 75 por ciento de tokens con una degradación del rendimiento menor al 15 por ciento). Logramos esto a través de un paradigma de entrenamiento de extremo a extremo que integra el control de modo de presupuesto en toda la canalización: ajuste fino supervisado en modo de presupuesto que incorpora capacidades de razonamiento controlable directamente en el proceso de aprendizaje, y aprendizaje por refuerzo en dos fases con conciencia de presupuesto y conformación adaptativa de recompensas. Experimentos extensos demuestran que ThinkDial alcanza compensaciones objetivo entre compresión y rendimiento con reducciones claras en la longitud de las respuestas, manteniendo umbrales de rendimiento. El marco también exhibe fuertes capacidades de generalización en tareas fuera de distribución.
English
Large language models (LLMs) with chain-of-thought reasoning have demonstrated remarkable problem-solving capabilities, but controlling their computational effort remains a significant challenge for practical deployment. Recent proprietary systems like OpenAI's gpt-oss series have introduced discrete operational modes for intuitive reasoning control, but the open-source community has largely failed to achieve such capabilities. In this paper, we introduce ThinkDial, the first open-recipe end-to-end framework that successfully implements gpt-oss-style controllable reasoning through discrete operational modes. Our system enables seamless switching between three distinct reasoning regimes: High mode (full reasoning capability), Medium mode (50 percent token reduction with <10 percent performance degradation), and Low mode (75 percent token reduction with <15 percent performance degradation). We achieve this through an end-to-end training paradigm that integrates budget-mode control throughout the entire pipeline: budget-mode supervised fine-tuning that embeds controllable reasoning capabilities directly into the learning process, and two-phase budget-aware reinforcement learning with adaptive reward shaping. Extensive experiments demonstrate that ThinkDial achieves target compression-performance trade-offs with clear response length reductions while maintaining performance thresholds. The framework also exhibits strong generalization capabilities on out-of-distribution tasks.
PDF32August 27, 2025