CodeI/O : Condensation des schémas de raisonnement via la prédiction d'entrée-sortie de code
CodeI/O: Condensing Reasoning Patterns via Code Input-Output Prediction
February 11, 2025
Auteurs: Junlong Li, Daya Guo, Dejian Yang, Runxin Xu, Yu Wu, Junxian He
cs.AI
Résumé
Le raisonnement est une capacité fondamentale des grands modèles de langage. Alors que les recherches antérieures se concentrent principalement sur l'amélioration de compétences spécifiques telles que les mathématiques ou la génération de code, l'amélioration des performances sur de nombreuses autres tâches de raisonnement reste difficile en raison de données d'entraînement rares et fragmentées. Pour résoudre ce problème, nous proposons CodeI/O, une approche novatrice qui condense systématiquement divers schémas de raisonnement intrinsèquement intégrés dans des codes ancrés contextuellement, en transformant le code original en un format de prédiction d'entrée-sortie de code. En formant des modèles à prédire les entrées/sorties étant donné le code et les cas de test entièrement en langage naturel en tant que justifications en chaîne de pensées (CoT), nous les exposons à des primitives de raisonnement universelles -- telles que la planification de flux logique, la recherche d'espace d'états, le parcours d'arbre de décision et la décomposition modulaire -- tout en dissociant le raisonnement structuré de la syntaxe spécifique au code et en préservant la rigueur procédurale. Les résultats expérimentaux démontrent que CodeI/O entraîne des améliorations constantes sur des tâches de raisonnement symbolique, scientifique, logique, mathématique et numérique, ainsi que de bon sens. En correspondant aux sorties de référence existantes ou en ré-exécutant le code avec les entrées prédites, nous pouvons vérifier chaque prédiction et améliorer davantage les CoTs grâce à des révisions multi-tours, aboutissant à CodeI/O++ et atteignant des performances supérieures. Nos données et modèles sont disponibles sur https://github.com/hkust-nlp/CodeIO.
English
Reasoning is a fundamental capability of Large Language Models. While prior
research predominantly focuses on enhancing narrow skills like math or code
generation, improving performance on many other reasoning tasks remains
challenging due to sparse and fragmented training data. To address this issue,
we propose CodeI/O, a novel approach that systematically condenses diverse
reasoning patterns inherently embedded in contextually-grounded codes, through
transforming the original code into a code input-output prediction format. By
training models to predict inputs/outputs given code and test cases entirely in
natural language as Chain-of-Thought (CoT) rationales, we expose them to
universal reasoning primitives -- like logic flow planning, state-space
searching, decision tree traversal, and modular decomposition -- while
decoupling structured reasoning from code-specific syntax and preserving
procedural rigor. Experimental results demonstrate CodeI/O leads to consistent
improvements across symbolic, scientific, logic, math & numerical, and
commonsense reasoning tasks. By matching the existing ground-truth outputs or
re-executing the code with predicted inputs, we can verify each prediction and
further enhance the CoTs through multi-turn revision, resulting in CodeI/O++
and achieving higher performance. Our data and models are available at
https://github.com/hkust-nlp/CodeIO.Summary
AI-Generated Summary