ChatPaper.aiChatPaper

Escalonamento de Cadeias de Pensamento e Instruções Assistidas por Código para Raciocínio de Modelos

Scaling Code-Assisted Chain-of-Thoughts and Instructions for Model Reasoning

October 5, 2025
Autores: Honglin Lin, Qizhi Pei, Xin Gao, Zhuoshi Pan, Yu Li, Juntao Li, Conghui He, Lijun Wu
cs.AI

Resumo

A capacidade de raciocínio é fundamental para os Modelos de Linguagem de Grande Escala (LLMs) resolverem tarefas complexas, mas alcançar um raciocínio confiável e escalável continua sendo um desafio. Embora o prompting de Cadeia de Pensamento (Chain-of-Thought, CoT) tenha se tornado uma abordagem predominante, os métodos existentes frequentemente sofrem com geração descontrolada, qualidade insuficiente e diversidade limitada nos caminhos de raciocínio. Esforços recentes utilizam código para aprimorar o CoT ao ancorar o raciocínio em etapas executáveis, mas tais métodos são tipicamente restritos a problemas matemáticos predefinidos, limitando a escalabilidade e generalização. Neste trabalho, propomos o Caco (Code-Assisted Chain-of-ThOught), um novo framework que automatiza a síntese de dados de raciocínio instrucional-CoT de alta qualidade, verificáveis e diversos por meio de aumento baseado em código. Diferente de trabalhos anteriores, o Caco primeiro ajusta finamente um gerador de CoT baseado em código em soluções matemáticas e de programação existentes em um formato de código unificado, depois escala a geração de dados para uma grande quantidade de traços de raciocínio diversos. Crucialmente, introduzimos validação automatizada via execução de código e filtragem baseada em regras para garantir correção lógica e diversidade estrutural, seguida pela engenharia reversa das saídas filtradas em instruções de linguagem natural e CoTs de linguagem para enriquecer a adaptabilidade das tarefas. Esse processo em loop fechado permite a síntese totalmente automatizada e escalável de dados de raciocínio com executabilidade garantida. Experimentos em nosso conjunto de dados Caco-1.3M demonstram que modelos treinados com Caco alcançam desempenho competitivo forte em benchmarks de raciocínio matemático, superando baselines robustos existentes. Análises adicionais revelam que a verificação ancorada em código e a diversidade de instruções do Caco contribuem para uma generalização superior em tarefas não vistas. Nosso trabalho estabelece um paradigma para a construção de sistemas de raciocínio autossustentáveis e confiáveis sem intervenção humana.
English
Reasoning capability is pivotal for Large Language Models (LLMs) to solve complex tasks, yet achieving reliable and scalable reasoning remains challenging. While Chain-of-Thought (CoT) prompting has become a mainstream approach, existing methods often suffer from uncontrolled generation, insufficient quality, and limited diversity in reasoning paths. Recent efforts leverage code to enhance CoT by grounding reasoning in executable steps, but such methods are typically constrained to predefined mathematical problems, hindering scalability and generalizability. In this work, we propose Caco (Code-Assisted Chain-of-ThOught), a novel framework that automates the synthesis of high-quality, verifiable, and diverse instruction-CoT reasoning data through code-driven augmentation. Unlike prior work, Caco first fine-tunes a code-based CoT generator on existing math and programming solutions in a unified code format, then scales the data generation to a large amount of diverse reasoning traces. Crucially, we introduce automated validation via code execution and rule-based filtering to ensure logical correctness and structural diversity, followed by reverse-engineering filtered outputs into natural language instructions and language CoTs to enrich task adaptability. This closed-loop process enables fully automated, scalable synthesis of reasoning data with guaranteed executability. Experiments on our created Caco-1.3M dataset demonstrate that Caco-trained models achieve strong competitive performance on mathematical reasoning benchmarks, outperforming existing strong baselines. Further analysis reveals that Caco's code-anchored verification and instruction diversity contribute to superior generalization across unseen tasks. Our work establishes a paradigm for building self-sustaining, trustworthy reasoning systems without human intervention.
PDF192October 8, 2025