ChatPaper.aiChatPaper

CODESIM: Multi-Agent Code Generatie en Probleemoplossing via Simulatiegestuurde Planning en Debugging

CODESIM: Multi-Agent Code Generation and Problem Solving through Simulation-Driven Planning and Debugging

February 8, 2025
Auteurs: Md. Ashraful Islam, Mohammed Eunus Ali, Md Rizwan Parvez
cs.AI

Samenvatting

Grote Taalmodellen (LLM's) hebben aanzienlijke vooruitgang geboekt op het gebied van codegeneratie en probleemoplossing. Huidige benaderingen maken gebruik van externe tool-gebaseerde iteratieve debuggers die compiler- of andere tool-gebaseerde runtime feedback gebruiken om ruwe programma's verfijnen die zijn gegenereerd door verschillende methoden. De effectiviteit van deze benaderingen is echter sterk afhankelijk van de kwaliteit van de initiële codegeneratie, wat een open uitdaging blijft. In dit artikel introduceren we CodeSim, een nieuw multi-agent codegeneratiekader dat uitgebreid de fasen van programma synthese - planning, codering en debugging - aanpakt via een menselijke perceptiebenadering. Net zoals mensen hun begrip van algoritmes verifiëren door visuele simulatie, beschikt CodeSim uniek over een methode voor planverificatie en interne debugging door de stapsgewijze simulatie van in- en uitvoer. Uitgebreide experimenten over zeven uitdagende competitieve probleemoplossings- en programma synthese-benchmarks tonen de opmerkelijke codegeneratiecapaciteiten van CodeSim aan. Ons kader behaalt nieuwe state-of-the-art (pass@1) resultaten - (HumanEval 95,1%, MBPP 90,7%, APPS 22% en CodeContests 29,1%). Bovendien toont onze methode potentieel voor nog grotere verbetering wanneer deze wordt gecombineerd met externe debuggers. Om verder onderzoek en ontwikkeling op dit gebied te vergemakkelijken, hebben we ons kader open-source gemaakt via deze link (https://kagnlp.github.io/codesim.github.io/).
English
Large Language Models (LLMs) have made significant strides in code generation and problem solving. Current approaches employ external tool-based iterative debuggers that use compiler or other tool-based runtime feedback to refine coarse programs generated by various methods. However, the effectiveness of these approaches heavily relies on the quality of the initial code generation, which remains an open challenge. In this paper, we introduce CodeSim, a novel multi-agent code generation framework that comprehensively addresses the stages of program synthesis-planning, coding, and debugging-through a human-like perception approach. As human verifies their understanding of any algorithms through visual simulation, CodeSim uniquely features a method of plan verification and internal debugging through the step-by-step simulation of input/output. Extensive experiments across seven challenging competitive problem-solving and program synthesis benchmarks demonstrate CodeSim's remarkable code generation capabilities. Our framework achieves new state-of-the-art (pass@1) results-(HumanEval 95.1%, MBPP 90.7%, APPS 22%, and CodeContests 29.1%). Furthermore, our method shows potential for even greater enhancement when cascaded with external debuggers. To facilitate further research and development in this area, we have open-sourced our framework in this link (https://kagnlp.github.io/codesim.github.io/).

Summary

AI-Generated Summary

PDF233February 11, 2025