ChatPaper.aiChatPaper

CodeSteer : Modèles de langage augmentés de manière symbolique via un guidage code/texte

CodeSteer: Symbolic-Augmented Language Models via Code/Text Guidance

February 4, 2025
Auteurs: Yongchao Chen, Yilun Hao, Yueying Liu, Yang Zhang, Chuchu Fan
cs.AI

Résumé

Les méthodes existantes échouent à diriger efficacement les grands modèles de langage (LLM) entre le raisonnement textuel et la génération de code, laissant les capacités de calcul symbolique sous-utilisées. Nous introduisons CodeSteer, une méthode efficace pour guider la génération de code/texte des LLM. Nous construisons un banc d'essai exhaustif SymBench comprenant 37 tâches symboliques avec une complexité ajustable et synthétisons également des ensembles de données de 12 000 trajectoires de guidage/génération multi-tours et 5 500 paires de comparaison de guidage. Nous affinons le modèle Llama-3-8B avec un nouvel accord de fine-tuning supervisé multi-tours (SFT) et une optimisation de préférence directe (DPO). Le modèle résultant, CodeSteerLLM, augmenté des vérificateurs symboliques et d'auto-réponse proposés, guide efficacement la génération de code/texte des modèles plus grands. L'ajout de CodeSteer à GPT-4o fait passer son score de performance moyen de 53,3 à 86,4, surpassant même les meilleurs LLM existants OpenAI o1 (82,7), o1-preview (74,8) et DeepSeek R1 (76,8) sur l'ensemble des 37 tâches (28 vues, 9 non vues). Entraîné pour GPT-4o, CodeSteer démontre une généralisabilité supérieure, offrant une amélioration moyenne de performance de 41,8 sur Claude, Mistral et GPT-3.5. Les LLM guidés par CodeSteer exploitent pleinement le calcul symbolique pour maintenir de bonnes performances sur des tâches très complexes. Les modèles, ensembles de données et codes sont disponibles sur https://github.com/yongchao98/CodeSteer-v1.0.
English
Existing methods fail to effectively steer Large Language Models (LLMs) between textual reasoning and code generation, leaving symbolic computing capabilities underutilized. We introduce CodeSteer, an effective method for guiding LLM code/text generation. We construct a comprehensive benchmark SymBench comprising 37 symbolic tasks with adjustable complexity and also synthesize datasets of 12k multi-round guidance/generation trajectories and 5.5k guidance comparison pairs. We fine-tune the Llama-3-8B model with a newly designed multi-round supervised fine-tuning (SFT) and direct preference optimization (DPO). The resulting model, CodeSteerLLM, augmented with the proposed symbolic and self-answer checkers, effectively guides the code/text generation of larger models. Augmenting GPT-4o with CodeSteer raises its average performance score from 53.3 to 86.4, even outperforming the existing best LLM OpenAI o1 (82.7), o1-preview (74.8), and DeepSeek R1 (76.8) across all 37 tasks (28 seen, 9 unseen). Trained for GPT-4o, CodeSteer demonstrates superior generalizability, providing an average 41.8 performance boost on Claude, Mistral, and GPT-3.5. CodeSteer-guided LLMs fully harness symbolic computing to maintain strong performance on highly complex tasks. Models, Datasets, and Codes are available at https://github.com/yongchao98/CodeSteer-v1.0.

Summary

AI-Generated Summary

PDF113February 10, 2025