ChatPaper.aiChatPaper

CoRT: Code-integriertes Denken und Schlussfolgern

CoRT: Code-integrated Reasoning within Thinking

June 11, 2025
Autoren: Chengpeng Li, Zhengyang Tang, Ziniu Li, Mingfeng Xue, Keqin Bao, Tian Ding, Ruoyu Sun, Benyou Wang, Xiang Wang, Junyang Lin, Dayiheng Liu
cs.AI

Zusammenfassung

Große Reasoning-Modelle (LRMs) wie o1 und DeepSeek-R1 haben bemerkenswerte Fortschritte im natürlichen Sprachverständnis mit langen Ketten von Gedanken (Chain-of-Thought, CoT) gezeigt, bleiben jedoch ineffizient oder ungenau bei der Handhabung komplexer mathematischer Operationen. Die Bewältigung dieser Einschränkungen durch rechnerische Werkzeuge (z. B. Rechenbibliotheken und symbolische Löser) ist vielversprechend, führt jedoch zu einer technischen Herausforderung: Der Code-Interpreter (CI) bringt externes Wissen über die internen Textrepräsentationen des Modells hinaus, wodurch die direkte Kombination nicht effizient ist. Dieses Papier stellt CoRT vor, ein Post-Training-Framework, um LRMs beizubringen, den CI effektiv und effizient zu nutzen. Als ersten Schritt adressieren wir das Problem der Datenknappheit, indem wir Code-integrierte Reasoning-Daten durch Hint-Engineering synthetisieren, das strategisch verschiedene Hinweise an geeigneten Positionen einfügt, um die LRM-CI-Interaktion zu optimieren. Wir erstellen manuell 30 hochwertige Beispiele, auf denen wir Modelle mit 1,5B bis 32B Parametern nachtrainieren, mit überwachtem Feintuning, Ablehnungs-Feintuning und Verstärkungslernen. Unsere experimentellen Ergebnisse zeigen, dass Hint-Engineering-Modelle absolute Verbesserungen von 4 % bzw. 8 % auf DeepSeek-R1-Distill-Qwen-32B und DeepSeek-R1-Distill-Qwen-1.5B über fünf anspruchsvolle mathematische Reasoning-Datensätze erzielen. Darüber hinaus verwenden Hint-Engineering-Modelle etwa 30 % weniger Tokens für das 32B-Modell und 50 % weniger Tokens für das 1,5B-Modell im Vergleich zu natürlichen Sprachmodellen. Die Modelle und der Code sind verfügbar unter https://github.com/ChengpengLi1003/CoRT.
English
Large Reasoning Models (LRMs) like o1 and DeepSeek-R1 have shown remarkable progress in natural language reasoning with long chain-of-thought (CoT), yet they remain inefficient or inaccurate when handling complex mathematical operations. Addressing these limitations through computational tools (e.g., computation libraries and symbolic solvers) is promising, but it introduces a technical challenge: Code Interpreter (CI) brings external knowledge beyond the model's internal text representations, thus the direct combination is not efficient. This paper introduces CoRT, a post-training framework for teaching LRMs to leverage CI effectively and efficiently. As a first step, we address the data scarcity issue by synthesizing code-integrated reasoning data through Hint-Engineering, which strategically inserts different hints at appropriate positions to optimize LRM-CI interaction. We manually create 30 high-quality samples, upon which we post-train models ranging from 1.5B to 32B parameters, with supervised fine-tuning, rejection fine-tuning and reinforcement learning. Our experimental results demonstrate that Hint-Engineering models achieve 4\% and 8\% absolute improvements on DeepSeek-R1-Distill-Qwen-32B and DeepSeek-R1-Distill-Qwen-1.5B respectively, across five challenging mathematical reasoning datasets. Furthermore, Hint-Engineering models use about 30\% fewer tokens for the 32B model and 50\% fewer tokens for the 1.5B model compared with the natural language models. The models and code are available at https://github.com/ChengpengLi1003/CoRT.
PDF162June 13, 2025