ChatPaper.aiChatPaper

CodeI/O: Condensazione dei Modelli di Ragionamento tramite la Predizione di Input-Output del Codice

CodeI/O: Condensing Reasoning Patterns via Code Input-Output Prediction

February 11, 2025
Autori: Junlong Li, Daya Guo, Dejian Yang, Runxin Xu, Yu Wu, Junxian He
cs.AI

Abstract

Il ragionamento è una capacità fondamentale dei Grandi Modelli Linguistici. Mentre la ricerca precedente si concentra principalmente sul potenziamento di abilità specifiche come la matematica o la generazione di codice, migliorare le prestazioni su molti altri compiti di ragionamento rimane difficile a causa dei dati di addestramento scarsi e frammentati. Per affrontare questo problema, proponiamo CodeI/O, un approccio innovativo che condensa in modo sistematico diversi schemi di ragionamento intrinsecamente incorporati nei codici contestualmente fondati, trasformando il codice originale in un formato di previsione input-output del codice. Addestrando i modelli a prevedere input/output dato il codice e i casi di test interamente in linguaggio naturale come ragionamenti Chain-of-Thought (CoT), li esponiamo a primitive di ragionamento universali -- come la pianificazione del flusso logico, la ricerca dello spazio degli stati, il travaso dell'albero decisionale e la decomposizione modulare -- separando il ragionamento strutturato dalla sintassi specifica del codice e preservando la rigore procedurale. I risultati sperimentali dimostrano che CodeI/O porta a miglioramenti consistenti su compiti di ragionamento simbolico, scientifico, logico, matematico e numerico, e di buon senso. Abbinando le uscite di verità esistenti o rieseguendo il codice con input previsti, possiamo verificare ogni previsione e migliorare ulteriormente i CoT attraverso revisioni multi-turno, ottenendo così CodeI/O++ e raggiungendo prestazioni superiori. I nostri dati e modelli sono disponibili su https://github.com/hkust-nlp/CodeIO.
English
Reasoning is a fundamental capability of Large Language Models. While prior research predominantly focuses on enhancing narrow skills like math or code generation, improving performance on many other reasoning tasks remains challenging due to sparse and fragmented training data. To address this issue, we propose CodeI/O, a novel approach that systematically condenses diverse reasoning patterns inherently embedded in contextually-grounded codes, through transforming the original code into a code input-output prediction format. By training models to predict inputs/outputs given code and test cases entirely in natural language as Chain-of-Thought (CoT) rationales, we expose them to universal reasoning primitives -- like logic flow planning, state-space searching, decision tree traversal, and modular decomposition -- while decoupling structured reasoning from code-specific syntax and preserving procedural rigor. Experimental results demonstrate CodeI/O leads to consistent improvements across symbolic, scientific, logic, math & numerical, and commonsense reasoning tasks. By matching the existing ground-truth outputs or re-executing the code with predicted inputs, we can verify each prediction and further enhance the CoTs through multi-turn revision, resulting in CodeI/O++ and achieving higher performance. Our data and models are available at https://github.com/hkust-nlp/CodeIO.

Summary

AI-Generated Summary

PDF493February 12, 2025