CODESIM: Mehr-Agenten-Codegenerierung und Problemlösung durch simulationsgestützte Planung und Debugging.
CODESIM: Multi-Agent Code Generation and Problem Solving through Simulation-Driven Planning and Debugging
February 8, 2025
Autoren: Md. Ashraful Islam, Mohammed Eunus Ali, Md Rizwan Parvez
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) haben bedeutende Fortschritte bei der Codegenerierung und Problemlösung erzielt. Aktuelle Ansätze verwenden externe werkzeugbasierte iterative Debugger, die Compiler oder andere werkzeugbasierte Laufzeit-Feedbacks nutzen, um grobe Programme zu verfeinern, die durch verschiedene Methoden generiert wurden. Die Effektivität dieser Ansätze hängt jedoch stark von der Qualität der initialen Codegenerierung ab, was eine offene Herausforderung darstellt. In diesem Paper stellen wir CodeSim vor, ein neuartiges Multi-Agenten-Codegenerierungs-Framework, das die Phasen der Programmsynthese - Planung, Codierung und Debugging - umfassend durch einen menschenähnlichen Wahrnehmungsansatz behandelt. Ähnlich wie Menschen ihre Verständnis von Algorithmen durch visuelle Simulation überprüfen, verfügt CodeSim über eine einzigartige Methode zur Planüberprüfung und internen Fehlersuche durch die schrittweise Simulation von Ein- und Ausgaben. Umfangreiche Experimente über sieben herausfordernde Wettbewerbsproblemlösungs- und Programmsynthese-Benchmarks zeigen die bemerkenswerten Codegenerierungsfähigkeiten von CodeSim. Unser Framework erzielt neue State-of-the-Art (pass@1) Ergebnisse - (HumanEval 95,1%, MBPP 90,7%, APPS 22% und CodeContests 29,1%). Darüber hinaus zeigt unsere Methode Potenzial für noch größere Verbesserungen, wenn sie mit externen Debuggern kombiniert wird. Um weitere Forschung und Entwicklung in diesem Bereich zu erleichtern, haben wir unser Framework unter folgendem Link als Open Source veröffentlicht (https://kagnlp.github.io/codesim.github.io/).
English
Large Language Models (LLMs) have made significant strides in code generation
and problem solving. Current approaches employ external tool-based iterative
debuggers that use compiler or other tool-based runtime feedback to refine
coarse programs generated by various methods. However, the effectiveness of
these approaches heavily relies on the quality of the initial code generation,
which remains an open challenge. In this paper, we introduce CodeSim, a novel
multi-agent code generation framework that comprehensively addresses the stages
of program synthesis-planning, coding, and debugging-through a human-like
perception approach. As human verifies their understanding of any algorithms
through visual simulation, CodeSim uniquely features a method of plan
verification and internal debugging through the step-by-step simulation of
input/output. Extensive experiments across seven challenging competitive
problem-solving and program synthesis benchmarks demonstrate CodeSim's
remarkable code generation capabilities. Our framework achieves new
state-of-the-art (pass@1) results-(HumanEval 95.1%, MBPP 90.7%, APPS 22%, and
CodeContests 29.1%). Furthermore, our method shows potential for even greater
enhancement when cascaded with external debuggers. To facilitate further
research and development in this area, we have open-sourced our framework in
this link (https://kagnlp.github.io/codesim.github.io/).Summary
AI-Generated Summary