ChatPaper.aiChatPaper

CODESIM: Mehr-Agenten-Codegenerierung und Problemlösung durch simulationsgestützte Planung und Debugging.

CODESIM: Multi-Agent Code Generation and Problem Solving through Simulation-Driven Planning and Debugging

February 8, 2025
Autoren: Md. Ashraful Islam, Mohammed Eunus Ali, Md Rizwan Parvez
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) haben bedeutende Fortschritte bei der Codegenerierung und Problemlösung erzielt. Aktuelle Ansätze verwenden externe werkzeugbasierte iterative Debugger, die Compiler oder andere werkzeugbasierte Laufzeit-Feedbacks nutzen, um grobe Programme zu verfeinern, die durch verschiedene Methoden generiert wurden. Die Effektivität dieser Ansätze hängt jedoch stark von der Qualität der initialen Codegenerierung ab, was eine offene Herausforderung darstellt. In diesem Paper stellen wir CodeSim vor, ein neuartiges Multi-Agenten-Codegenerierungs-Framework, das die Phasen der Programmsynthese - Planung, Codierung und Debugging - umfassend durch einen menschenähnlichen Wahrnehmungsansatz behandelt. Ähnlich wie Menschen ihre Verständnis von Algorithmen durch visuelle Simulation überprüfen, verfügt CodeSim über eine einzigartige Methode zur Planüberprüfung und internen Fehlersuche durch die schrittweise Simulation von Ein- und Ausgaben. Umfangreiche Experimente über sieben herausfordernde Wettbewerbsproblemlösungs- und Programmsynthese-Benchmarks zeigen die bemerkenswerten Codegenerierungsfähigkeiten von CodeSim. Unser Framework erzielt neue State-of-the-Art (pass@1) Ergebnisse - (HumanEval 95,1%, MBPP 90,7%, APPS 22% und CodeContests 29,1%). Darüber hinaus zeigt unsere Methode Potenzial für noch größere Verbesserungen, wenn sie mit externen Debuggern kombiniert wird. Um weitere Forschung und Entwicklung in diesem Bereich zu erleichtern, haben wir unser Framework unter folgendem Link als Open Source veröffentlicht (https://kagnlp.github.io/codesim.github.io/).
English
Large Language Models (LLMs) have made significant strides in code generation and problem solving. Current approaches employ external tool-based iterative debuggers that use compiler or other tool-based runtime feedback to refine coarse programs generated by various methods. However, the effectiveness of these approaches heavily relies on the quality of the initial code generation, which remains an open challenge. In this paper, we introduce CodeSim, a novel multi-agent code generation framework that comprehensively addresses the stages of program synthesis-planning, coding, and debugging-through a human-like perception approach. As human verifies their understanding of any algorithms through visual simulation, CodeSim uniquely features a method of plan verification and internal debugging through the step-by-step simulation of input/output. Extensive experiments across seven challenging competitive problem-solving and program synthesis benchmarks demonstrate CodeSim's remarkable code generation capabilities. Our framework achieves new state-of-the-art (pass@1) results-(HumanEval 95.1%, MBPP 90.7%, APPS 22%, and CodeContests 29.1%). Furthermore, our method shows potential for even greater enhancement when cascaded with external debuggers. To facilitate further research and development in this area, we have open-sourced our framework in this link (https://kagnlp.github.io/codesim.github.io/).

Summary

AI-Generated Summary

PDF233February 11, 2025