ChatPaper.aiChatPaper

Schaalvergroting van Code-ondersteunde Gedachtegangen en Instructies voor Modelredenering

Scaling Code-Assisted Chain-of-Thoughts and Instructions for Model Reasoning

October 5, 2025
Auteurs: Honglin Lin, Qizhi Pei, Xin Gao, Zhuoshi Pan, Yu Li, Juntao Li, Conghui He, Lijun Wu
cs.AI

Samenvatting

Redeneervermogen is cruciaal voor Large Language Models (LLMs) om complexe taken op te lossen, maar het bereiken van betrouwbare en schaalbare redenering blijft een uitdaging. Hoewel Chain-of-Thought (CoT) prompting een mainstream benadering is geworden, lijden bestaande methoden vaak aan ongecontroleerde generatie, onvoldoende kwaliteit en beperkte diversiteit in redeneerpaden. Recente inspanningen maken gebruik van code om CoT te verbeteren door redenering te verankeren in uitvoerbare stappen, maar dergelijke methoden zijn meestal beperkt tot vooraf gedefinieerde wiskundige problemen, wat de schaalbaarheid en generaliseerbaarheid belemmert. In dit werk stellen we Caco (Code-Assisted Chain-of-ThOught) voor, een nieuw framework dat de synthese van hoogwaardige, verifieerbare en diverse instructie-CoT-redeneergegevens automatiseert via code-gestuurde augmentatie. In tegenstelling tot eerder werk, fine-tunt Caco eerst een code-gebaseerde CoT-generator op bestaande wiskundige en programmeeroplossingen in een uniform codeformaat, en schaalt vervolgens de gegevensgeneratie naar een grote hoeveelheid diverse redeneersporen. Cruciaal is dat we geautomatiseerde validatie introduceren via code-uitvoering en regelgebaseerde filtering om logische correctheid en structurele diversiteit te waarborgen, gevolgd door het reverse-engineeren van gefilterde uitvoer naar natuurlijke taal-instructies en taal-CoTs om de taakaanpassingsvermogen te verrijken. Dit gesloten-loopproces maakt volledig geautomatiseerde, schaalbare synthese van redeneergegevens mogelijk met gegarandeerde uitvoerbaarheid. Experimenten op onze gecreëerde Caco-1.3M-dataset tonen aan dat met Caco getrainde modellen sterke competitieve prestaties behalen op wiskundige redeneerbenchmarks, waarbij bestaande sterke baselines worden overtroffen. Verdere analyse onthult dat Caco's code-geankerde verificatie en instructiediversiteit bijdragen aan superieure generalisatie over onbekende taken. Ons werk vestigt een paradigma voor het bouwen van zelfonderhoudende, betrouwbare redeneersystemen zonder menselijke tussenkomst.
English
Reasoning capability is pivotal for Large Language Models (LLMs) to solve complex tasks, yet achieving reliable and scalable reasoning remains challenging. While Chain-of-Thought (CoT) prompting has become a mainstream approach, existing methods often suffer from uncontrolled generation, insufficient quality, and limited diversity in reasoning paths. Recent efforts leverage code to enhance CoT by grounding reasoning in executable steps, but such methods are typically constrained to predefined mathematical problems, hindering scalability and generalizability. In this work, we propose Caco (Code-Assisted Chain-of-ThOught), a novel framework that automates the synthesis of high-quality, verifiable, and diverse instruction-CoT reasoning data through code-driven augmentation. Unlike prior work, Caco first fine-tunes a code-based CoT generator on existing math and programming solutions in a unified code format, then scales the data generation to a large amount of diverse reasoning traces. Crucially, we introduce automated validation via code execution and rule-based filtering to ensure logical correctness and structural diversity, followed by reverse-engineering filtered outputs into natural language instructions and language CoTs to enrich task adaptability. This closed-loop process enables fully automated, scalable synthesis of reasoning data with guaranteed executability. Experiments on our created Caco-1.3M dataset demonstrate that Caco-trained models achieve strong competitive performance on mathematical reasoning benchmarks, outperforming existing strong baselines. Further analysis reveals that Caco's code-anchored verification and instruction diversity contribute to superior generalization across unseen tasks. Our work establishes a paradigm for building self-sustaining, trustworthy reasoning systems without human intervention.
PDF192October 8, 2025